На саміті у Хіросімі лідери країн“Групи семи” (G7) вперше обговорять спільний підхід до регулювання використання програм генеративного штучного інтелекту, таких як GPT-4.
Про це йдеться у матеріалі The New York Times.
Штучний інтелект не був на порядку денному зустрічі. Але коли нова лінгвістична модель штучного інтелекту від OpenAI змусила країни в усьому світі “вперше зосередитися на можливостях дезінформації, хаосу та фізичного знищення критичної інфраструктури”, радник американського президента з національної безпеки Джейк Салліван почав телефонувати своїм колегам зі закликом провести таку дискусію, пише газета.
Не зрозуміло чи очільники G7 зможуть підтримувати розмову про технологію. Попередні спроби змусити групу зайнятися набагато простішими питаннями кібербезпеки зазвичай зводилися до банальності про “державно-приватне партнерство”, а серйозного обговорення правил використання кіберзброї ніколи не було.
Американські посадовці кажуть, що у випадку з чат-ботами навіть розпливчасте фундаментальне обговорення може допомогти у встановленні спільних принципів:
- що корпорації, які випускають продукти з використанням широкомовних моделей, першочергово відповідальні за їхню безпечність,
- що повинні існувати правила прозорості, що дають зрозуміти, які дані використовувалися для кожної системи.
Це дозволить помічникам лідерів надалі працювати над розробкою проєкту таких перших правил.
Нагадаємо, чат-бот зі штучним інтелектом ChatGPT став доступним в Україні у лютому.
У березні понад 1000 технічних лідерів та дослідників, включно з Ілоном Маском, закликали лабораторії зі створення штучного інтелекту пригальмувати з розробкою найбільш просунутих систем.
Того ж місяця ChatGPT через занепокоєння обробкою персональних даних своїх громадян заблокувала Італія. Трохи пізніше стало відомо, що програму також можуть тимчасово заблокувати у Німеччині.
Натомість Укрзалізниця почала використовувати ChatGPT для обробки звернень пасажирів. 16 травня стартував безкоштовний курс Мінцифри та Google про штучний інтелект – "Основи АІ".