ГоловнаБлогиЮрия Чубатюка

Искусственный интеллект на службе современного политикума: угрозы демократическим принципам и необходимость новых стандартов

Манипуляции всегда были частью политики. Однако на протяжении истории количество инструментов, способных повлиять на настроения электората, было ограничено. Чаще всего политикам приходилось полагаться на интуицию и проницательность. Однако современные технологии позволяют влиять на общественное сознание невероятно тонко и эффективно, что даже несет угрозу демократическим ценностям.

Фото: Макс Требухов

Массовое манипулирование сектором потенциальных избирателей, которое стало возможным благодаря искусственному интеллекту, представляет собой гораздо более серьезную и ощутимую угрозу демократии, чем фантастические роботы-убийцы. Интеллектуальные системы имеют подрывной потенциал, которым не брезгуют пользоваться не только авторитарные режимы, но и большинство политиков западных государств. При этом и без того слабые демократические институты развивающихся стран наиболее уязвимы в этой ситуации.

А вы уже проголосовали за ИИ?

Украина, как и многие другие развивающиеся страны, не имеет общегосударственной стратегии формирования принципов этического, социального и нормативного применения ИИ. Это автоматически вводит нас в зону риска, особенно когда речь идет о вероятности управления общественным сознанием для реализации личных политических амбиций в ходе избирательных процессов. Интеллектуальные технологии используются политическими субъектами для подавления голосов и идей, формирования идеологических барьеров, а также в социальных сетях в виде ботов. Последние могут, к примеру, обеспечить скоординированный протест или придать «прозрачности» кандидату, который без подобных махинаций никогда бы не оказался в фаворитах у избирателей.

Боты, по сути, являются автономными учетными записями в социальных сетях, которые запрограммированы на агрессивное распространение односторонних политических сообщений для создания иллюзии поддержки. Тактика массовых «атак» политических ботов уже неоднократно применялась во многих западных государствах, не взирая на заявляемые принципы «открытой демократии». Наиболее масштабными являются случаи использования ботов на государственных выборах в 2017 году в Великобритании, когда в соцсетях активно распространялась неправдивая информация о кандидатах в пользу иллюзорных преимуществ наименее популярных претендентов на кресло в правительстве. То же самое произошло во время президентских выборов в США в 2016 году и в ходе ряда других ключевых политических выборов во всем мире.

Согласно исследовательским данным, основные методы манипуляций при помощи ИИ сегодня следующие:

  • Запуск автоматизированных платформ наблюдения и отслеживания настроений электората, а также сбор, обработка и использование личной конфиденциальной информации в разведывательных целях;

  • Распространение фальшивых новостей в виде аудио- и видеоконтента;

  • Организация автоматизированных, гиперперсонифицированных дезинформационных кампаний, когда отдельные физические лица в неблагополучных и нестабильных регионах получают сообщения с определенными смыслами, прямо влияющими на их поведение непосредственно во время голосования;

  • Автоматизация предвыборных кампаний, осуществляемая посредством анализа социальных сетей при помощи ИИ с целью определения ключевых источников формирования взглядов, намерений и приоритетов избирателей;

  • Осуществление автоматизированных крупномасштабных атак на информационные ресурсы. Как правило, используются для увеличения количества информационных каналов (с фальшивой или просто отвлекающей информацией), что затрудняет получение правды;

  • Манипуляции с доступом к информации, когда алгоритмы кодирования содержания медиаплатформ используются для управления поведением избирателей.

Реалии украинского политикума – плодотворная почва для манипуляций при помощи ИИ

Украина, как отмечают многие политтехнологи и международные эксперты, входит в список стран, где политические махинации, особенно в ходе избирательных кампаний накануне выборов, применяются более чем успешно.

Безусловно, на нынешнем этапе развития технологий ИИ в нашей стране, методы отечественных политиков могут быть не настолько прогрессивными, как в тех странах мира, где техники манипулирования электоратом отточены до высочайшего уровня. В то же время, это делает наше общество еще более уязвимым к рискам, связанным с неправомерным применением искусственного интеллекта: мало того, что подобная тактика сама по себе несет угрозу, так еще и напрочь отсутствует понимание последствий такого вмешательства в принцип работы демократического государства.

Та же часть украинских избирателей, которая все же скептически относится к любым избирательным кампаниям, проявляет осторожность к политтехнологиям, подразумевая разве что возможность подкупа. Что, в принципе, является привычной практикой в нашей стране. Однако, согласно некоторым социологическим опросам, фактически никто из тех, кто доходит до избирательной урны в процессе голосования, во-первых, не может дать четкого ответа на вопрос, что повлияло на его выбор, а значит, существует вероятность того, что выбор мог быть скорректирован посредством медийных или других манипуляций.

Капкан для ИИ

В странах, где нет четко сформированного понимания возможностей, принципов и рисков внедрения искусственного интеллекта, следует пристальнее следить за развитием данной сферы, не отпуская этот процесс в свободное плавание. Ученые, исследователи и разработчики интеллектуальных технологий должны находится под контролем общества.

Страны Европейского союза, в свое время, тщательно продавливали противодействие корпоративной собственности, связанной с разработками ИИ, укрепляя официальные права граждан на свои личные данные. Такой прием позволил существенно сократить число рисковых ситуаций, связанных с неправомерным использованием конфиденциальной информации, в частности, в целях политических манипуляций. Украина могла бы последовать подобному примеру.

Научные организации и исследовательские центры, которые в нашей стране переживают не лучшие времена, все же имеют наибольший потенциал для формирования дискурса вокруг ИИ. Первым важным шагом является признание – выведение дискуссий о возможностях и рисках искусственного интеллекта в публичные рамки украинских реалий запустит тему в массы. Но это не единственная задача ученых. Они должны всегда оставаться независимыми и беспристрастными в своей оценке любого направления использования инноваций.

Формируя ключевой посыл, направленный на предупреждение рисковых манипуляторных способов задействования ИИ, в частности, в политической среде, стоит опираться на следующие меры предосторожности:

  • Децентрализация функции информационных систем;

  • Поощрение участия граждан в информационных процессах;

  • Повышение прозрачности применяемых технологий в целях получения большего доверия к ним;

  • Контроль ресурсов, искажающих информацию;

  • Способствование улучшению функциональной совместимости граждан и информационной системы;

  • Создания цифровых помощников и инструментов координации применяемых технологий ИИ;

  • Содействие ответственному поведению граждан в цифровом мире посредством информирования и просвещения.

Следует помнить, что в ближайшее время тяга политических лидеров к использованию методов ИИ не иссякнет. Это слишком ценный и действенный метод для успешной реализации предвыборных кампаний. Тем не менее, именно политики должны взять на себя обязательство использовать технологии ИИ ответственно, чтобы гарантировать, что их попытки повлиять на избирателей не подрывают демократию.

Юрий Чубатюк Юрий Чубатюк , Президент группы компаний Everest
Читайте головні новини LB.ua в соціальних мережах Facebook, Twitter і Telegram