ГоловнаСвіт

Ілон Маск і ще понад 1000 технічних лідерів закликали пригальмувати зі створенням потужного штучного інтелекту

Вони вважають, що спершу варто розробити протоколи безпеки, а вже потім займатися їх розробкою. 

Ілон Маск і ще понад 1000 технічних лідерів закликали пригальмувати зі створенням потужного штучного інтелекту
Фото: Державний університет телекомунікацій

Понад 1000 технічних лідерів та дослідників, включно з Ілоном Маском, закликали лабораторії зі створення штучного інтелекту пригальмувати з розробкою найбільш просунутих систем. Вони вважають, що ШІ є "великими ризиками для суспільства та людства", пише New York Times.

Автором листа є некомерційна організація Future of Life. Його автори вважають, що розробники ШІ "замкнені у неконтрольованих перегонах за розробкою і розгортанням все потужніших цифрових розумів, які ніхто – навіть їхні творці – не можуть зрозуміти, передбачити чи надійно контролювати". 

Звернення, крім Маска, підписали, співзасновник Apple С. Возняк, підприємець на кандидат у президенти США в 2020 Ендрю Янг, президент організації "Вісника атомної науки" Рейчел Бронсон. 

Лист закликає зупинити розробки систем штучного інтелекту, потужніших від чатбота GPT-4 – розробки лабораторії OpenAI, співзасновником якої є Ілон Маск. Паузу в розробках пропонують використати для впровадження спільних протоколів безпеки для штучних інтелектів. У разі неможливості впровадження такого мораторію підписанти закликали уряди втрутитися. 

Однією з основних загроз від ШІ критики таких розробок називали блискавичне поширення дезінформації, позаяк деякі інтелекти здатні писати різноманітні тексти. Також є ризик, що люди будуть покладатися на ці системи для отримання медичних та емоційних порад, а не звертатися до фахівців. 

Нагадаємо, в березні ШІ GPT-4 вдалося обійти перевірку та переконати людину, що він не є роботом. Інтелект сказав, що є людиною з поганим зором, тож не може розгледіти СAPTCHA, і людина повірила. 

Читайте головні новини LB.ua в соціальних мережах Facebook, Twitter і Telegram