Изкуственият интелект предизвиква хаос: Какво да правим, за да е безопасен?

Последната сензация в сферата на изкуствения интелект – бъбривият „чатбот на стероиди“ ChatGPT, принуди европейските законодатели да пренапишат плановете си как да регулират изкуствения интелект (ИИ, AI).
През последните месеци чатботът заля интернет с бързонаписаната си проза, наподобяваща човешка. Той се обясни в любов на журналист от „New York Times“. Написа хайку за маймуни, които се освобождават от лаборатория. Той дори стигна до трибуната на Европейския парламент, където двама германски депутати произнесоха речи, изготвени от ChatGPT, за да подчертаят необходимостта от ограничаване на технологиите за изкуствен интелект, посочва БГНЕС, цитирайки Politico.
Но след месеци на интернет забавления и критики, технологията поставя пред регулаторните органи на Европейския съюз един резонен въпрос: Как да контролираме това нещо?
Технологията вече е в разрез с работата на Европейската комисия, Европейския парламент и Съвета на ЕС по проекта на блока за правила за изкуствения интелект – Актът за изкуствения интелект. Регламентът, предложен от ЕК през 2021 г. имаше за цел да забрани някои приложения на изкуствения интелект, като например социалното точкуване, манипулирането и някои случаи на разпознаване на лица. Той също така трябваше да регламентира някои конкретни употреби на AI като „високорискови“, обвързвайки разработчиците с по-строги изисквания за прозрачност, безопасност и човешки надзор.
Уловката? ChatGPT може да служи както за добри, така и за лоши намерения.
ОЩЕ по темата: ChatGPT е важен колкото интернет, ще промени света, смята Бил Гейтс
Този тип изкуствен интелект, наречен голям езиков модел, няма едно-единствено предназначение: Хората могат да го подтикнат да пише песни, романи и стихотворения, но също така и компютърни кодове, политически справки, фалшиви новини или, както признава един колумбийски съдия, съдебни решения. Други модели, обучени на изображения, а не на текст, могат да генерират всичко – от карикатури до фалшиви снимки на политици, което поражда опасения за опасност от дезинформация.
В един от случаите новата търсачка Bing, манипулирана от технологията на ChatGPT, заплаши изследовател с „хакерство“ и „разруха“. В друг случай задвижвано от AI приложение за трансформиране на снимки в карикатури, наречено Lensa, хиперсексуализира снимки на азиатски жени.
„Тези системи нямат етично разбиране за света, нямат усещане за истина и не са надеждни“, казва Гари Маркъс, експерт по AI и яростен критик на ChatGPT .
„Този тип изкуствен интелект е като мощен двигател. Те могат да вършат доста неща и сами по себе си все още не са определени за някаква цел“, каза Драгош Тудораш, либерален румънски депутат, който заедно с италианския депутат Брандо Бенифеи е натоварен със задачата да прокара Акта за AI в Европейския парламент.
Технологията вече е накарала институциите на ЕС да преработят своите проектопланове. През декември Съветът на ЕС, който представлява националните столици, одобри своя версия на проекта на Акт за изкуствен интелект, който възлага на Комисията да установи изисквания за киберсигурност, прозрачност и управление на риска, свързан с AI с общо предназначение.
Google vs. Micorsoft: Bard A.I. – отговорът на Google на ChatGPT
Възходът на ChatGPT принуждава и Европейския парламент да последва примера. През февруари водещите законодатели по Закона за изкуствения интелект Бенифеи и Тудораш предложиха системите с изкуствен интелект, които генерират сложни текстове без човешки надзор, да бъдат включени в списъка с висок риск – опит да се спре ChatGPT да произвежда дезинформация в голям мащаб. Идеята беше посрещната скептично от десните политически групи в Европейския парламент и дори от част от групата на либералите на Тудораш. Аксел Фос, виден десноцентристки депутат заяви, че поправката „ще направи многобройни дейности високорискови, без те да бъдат такива“.
За разлика от тях, активисти и наблюдатели смятат, че предложението само е набраздило повърхността на проблема с AI с общо предназначение. „Не е добре да се поставят само системите за създаване на текстове в списъка с висок риск: има и други системи с общо предназначение, които представляват риск и също трябва да бъдат регулирани“, казва Марк Бракел, директор по политиката в Института за бъдещето на живота – организация с нестопанска цел, която се занимава с политиката в областта на изкуствения интелект.
Двамата водещи законодатели в ЕП работят и за налагането на по-строги изисквания както към разработчиците, така и към потребителите на ChatGPT и подобни модели на AI, включително управление на риска от технологията и прозрачност на нейното функциониране. Те се опитват да наложат по-строги ограничения на големите доставчици на услуги, като същевременно запазят по-лек режим за обикновените потребители, използващи технологията.
Европейската комисия, Европейският съвет и Европейският парламент ще уточнят подробностите на окончателния Акт за изкуствения интелект в тристранни преговори, които се очаква да започнат най-рано през април. Там въпросът с ChatGPT може да доведе до задънена улица, докато трите страни търсят общо решение за новата технология – как да работи, без да е опасно за хората.
Големите технологични компании, особено тези, които са въвлечени в играта, като Microsoft и Google, наблюдават внимателно.
Законът за изкуствения интелект на ЕС трябва „да запази фокуса си върху високорисковите случаи на употреба“, заяви главният отговорник за изкуствения интелект на Microsoft Наташа Крамптън, като предположи, че системите за изкуствен интелект с общо предназначение като ChatGPT едва ли се използват за рискови дейности, а вместо това се употребяват предимно за изготвяне на документи.
„Искаме да сме сигурни, че случаите на употреба с висока стойност и нисък риск продължават да бъдат достъпни за европейците“, каза Крамптън. (ChatGPT, създадена от американската изследователска група OpenAI, е инвеститор на Microsoft и сега се разглежда като основен елемент в стратегията на компанията за съживяване на нейната търсачка Bing. OpenAI не отговори на запитване за коментар).
В неотдавнашно разследване на активистката група за прозрачност Corporate Europe Observatory се казва, че участници от индустрията, включително Microsoft и Google, упорито са лобирали пред създателите на политики на ЕС да извадят AI с общо предназначение като ChatGPT от изискванията, наложени на високорисковите системи за AI.
ОЩЕ по темата: Изкуствен интелект помага на компаниите да решават кои служители да уволнят
Може ли самият бот да се притече на помощ на създателите на правилата на ЕС?
ChatGPT заяви пред POLITICO, че смята, че може да се нуждае от регулация: „ЕС трябва да обмисли определянето на генеративния изкуствен интелект и големите езикови модели като „високорискови“ технологии, като се има предвид техният потенциал да създават вредно и подвеждащо съдържание“, отговори чатботът, когато му беше зададен въпрос дали трябва да попадне в обхвата на Акта за изкуствения интелект на ЕС.
„ЕС следва да обмисли въвеждането на рамка за отговорно разработване, внедряване и използване на тези технологии, която да включва подходящи предпазни мерки, механизми за мониторинг и надзор“, написа ChatGPT.
ЕС със сигурност ще се сблъска и с още последващи въпроси.