ГоловнаТехнології

Експерти та топменеджери зі сфери штучного інтелекту порушили питання ризику вимирання людства внаслідок розвитку технології

Вони поставили ризики від штучного інтелекту на один щабель із пандеміями та ядерною війною.

Експерти та топменеджери зі сфери штучного інтелекту порушили питання ризику вимирання людства внаслідок розвитку технології
Фото: Bing Image Creator

Топменеджери зі сфери штучного інтелекту (ШІ), включаючи генерального директора OpenAI Сема Альтмана, у вівторок, 30 травня, підтримали експертів і професорів у висвітленні питання “ризику вимирання від ШІ”, закликавши політиків прирівняти ці ризики до пандемій та ядерної війни.

Про це повідомляє Reuters. 

“Зменшення ризику вимирання через штучний інтелект має стати глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна”, — написали понад 350 підписантів у листі, опублікованому некомерційною організацією Центр безпеки ШІ (Center for AI Safety, CAIS).

Окрім Альтмана, серед підписантів були генеральні директори компаній, що займаються штучним інтелектом, DeepMind і Anthropic, а також керівники Microsoft (MSFT.O) і Google (GOOGL.O).

Також серед підписантів були Джеффрі Хінтон і Йошуа Бенгіо — двоє з трьох так званих “хрещених батьків штучного інтелекту”, які отримали нагороду Тюрінга 2018 року за роботу з глибинного навчання (deep learning), — а також професори різних закладів від Гарварду до китайського Університету Цінхуа.

Підписанти у листі засуджують третього хрещеного батька ШІ Янна ЛеКуна, який працює в компанії Meta (META.O), за те, що він не поставив свій підпис під цим зверненням.

Публікація листа збіглася у часі з засіданням Ради з торгівлі та технологій США та ЄС у Швеції, де очікується, що політики обговорять питання регулювання ШІ.

Зазначається, що Ілон Маск і група експертів зі штучного інтелекту та керівників галузі були першими, хто назвав потенційні ризики для суспільства від ШІ.

Нещодавні розробки в галузі штучного інтелекту дозволили створити інструменти, які, за словами прихильників, можна використовувати в програмах від медичної діагностики до написання юридичних записок, але це викликало побоювання, що технологія може призвести до порушень конфіденційності, посилити кампанії з дезінформації та призвести до проблем, коли “розумні машини” думають самі за себе.

Піонер штучного інтелекту Хінтон раніше заявив Reuters, що штучний інтелект може становити більш нагальну” загрозу для людства, ніж зміна клімату.

Минулого тижня генеральний директор OpenAI Сем Альтман назвав спроби ЄС регулювати штучний інтелект надмірними і погрожував покинути Європу. Він змінив свою позицію через кілька днів після критики з боку політиків.

Президентка Європейської комісії Урсула фон дер Ляєн має зустрітися з Альтманом у четвер, 1 червня.

Нагадаємо, Європа пропонує "Пакт про штучний інтелект", щоб знизити ризики, пов'язані з бурхливим розвитком технології. У межах цього добровільного пакту Microsoft, Google і OpenAI, мають погодитися з необов'язковими принципами прозорості та підзвітності.

Читайте головні новини LB.ua в соціальних мережах Facebook, Twitter і Telegram