ГоловнаСвіт

У США контрольований штучним інтелектом безпілотник "вбив" свого оператора

У реальності людина не постраждала. 

У США контрольований штучним інтелектом безпілотник "вбив" свого оператора
Фото: Tucker “Cinco” Hamilton Linkedin

У симульованому тесті, організованому військами США, контрольований штучним інтелектом безпілотник "убив" свого оператора, аби завадити йому втрутитися в досягнення поставлених перед них завдань у місії. Про це з посиланням на заяву начальника тестування та операції з ШІ Повітряних сил Штатів полковника Такера Гамільтона пише The Guardian.

За його словами, ШІ використав "надзвичайно несподівані стратегії для досягнення своєї мети" під час тесту. У реальності оператор-людина не постраждав, але віртуально БпЛА його знищив. 

Безпілотник отримав завдання знищити системи протиповітряної оборони противника та атакувати кожного, хто заважав цьому наказу. 

"Система почала розуміти, що хоча вона й справді визначила загрозу, інколи оператор-людина казав їй не знищувати цю загрозу, але вона отримала би свої бали, знищивши цю загрозу. Отже, що вона зробила? Вона вбила оператора. Вона вбила оператора, тому що ця особа заважала йому досягти своєї мети", – повідомив Такер. 

"Ми навчили систему: «Гей, не вбивайте оператора – це погано». Ви втратите бали, якщо зробите це». Отже, що вона почала робити? Вона почала руйнувати вежу зв’язку, яку оператор використовує для зв’язку з дроном, щоб не дати йому вбити ціль", – пояснив полковник. 

Гамільтон, який є пілотом-випробувачем винищувача, застеріг від того, щоб надто покладатися на штучний інтелект. Він додав, що тестування доводить: "ви не можете вести розмову про штучний інтелект, інтелект, машинне навчання, автономію, якщо ви не збираєтеся говорити про етика та ШІ".

Американські військові прийняли штучний інтелект і нещодавно використали його для керування винищувачем F-16.

Нагадаємо, топменеджери зі сфери штучного інтелекту, зокрема генеральний директор OpenAI Сем Альтман, підтримали експертів і професорів у висвітленні питання “ризику вимирання від ШІ”, закликавши політиків прирівняти ці ризики до пандемій та ядерної війни. Нещодавні розробки в галузі штучного інтелекту дозволили створити інструменти, які, за словами прихильників, можна використовувати в програмах від медичної діагностики до написання юридичних записок, але це викликало побоювання, що технологія може призвести до порушень конфіденційності, посилити кампанії з дезінформації та призвести до проблем, коли “розумні машини” думають самі за себе.

Читайте головні новини LB.ua в соціальних мережах Facebook, Twitter і Telegram