Алгоритмы будущего: ИИ как инструмент государственных переворотов

picture alliance/dpa | Himanshu Sharma

С тех пор как в ноябре 2022 г. мир увидел ChatGPT, все, начиная от школьников старших классов, заканчивая менеджерами высшего звена, искали способ, как внедрить технологии генеративного искусственного интеллекта в повседневную жизнь, упростив и улучшив решение рабочих задач. Нейросети уже способны в отдельных случаях заменить переводчиков, копирайтеров и графических дизайнеров. Музыка, написанная ИИ, практически неотличима от созданной человеком, а вышедшая недавно SoraAi, позволяющая генерировать Full HD-видео по текстовому описанию, потенциально в сотни раз удешевляет создание фильмов, что представляется явным признаком грядущей революции в киноиндустрии.

Основатель OpenAI Сэм Альтман говорит, что ИИ даёт инструменты для будущего прогресса, и «наши дети смогут делать то, что мы не можем». Общество уже сейчас успешно адаптирует алгоритмы ИИ для решения повседневных задач, так же как в своё время оно адаптировало компьютеры и смартфоны.

«Множество людей теперь могут использовать его [ИИ, искусственный интеллект] для повышения продуктивности своей работы, — в этом и заключается мощь. Я знаю, что это звучит не так приятно, как если бы кто-то сказал: "Он будет выполнять вот эти конкретные задачи". Но он становится компаньоном в процессе выполнения умственной работы, он превращается в один из способов применения компьютера», — сказал Сэм Альтман в интервью The Economist.

Подход, согласно которому, ИИ — это не замена человеку, а его верный слуга, завоёвывает всё больше сторонников по мере внедрения новых технологий в нашу жизнь. Широко разошедшееся в марте этого года письмо Илона Маска и Стива Возняка с призывом остановить развитие нейросетей, чтобы помешать «нечеловеческим умам превзойти человечество численностью, перехитрить, сделать человека ненужным и заменить», превратилось в яркую вспышку в инфополе, а потом растворилось в нём.

Впрочем, и у самого Илона Маска в списке его кампаний имеется X.AI, которая занимается обучением нейросетей и представляет собой прямого конкурента OpenAI, что вероятно и объясняет призывы Маска отказаться от ChatGPT.

Стремительность, с которой нейросети приобретают популярность и доверие у широкой аудитории, схожа с тем, как почти 20 лет назад социальные сети начали расползаться по земному шару. В тот исторический момент западные политтехнологи и архитекторы цветных революций относительно быстро оценили силу социальных сетей и научились использовать их для разжигания протестных настроений, а мир стал свидетелем Арабской весны. А уже сегодня ведущие западные эксперты описывают сценарии применения систем ИИ для дестабилизации внутриполитических процессов в других странах. Американские исследователи Дэниел Байман, Дэниел Линна-младший и Венкатраманан Субраманьян пишут об использовании дипфейков, созданных ИИ, для вмешательства во внутриполитические процессы других государств. Эксперты допускают «морально оправданное» использование технологии ИИ для того, чтобы помочь прийти к власти «более прогрессивному» по западным меркам режиму или свергнуть «диктатора», заподозренного западными спецслужбами в намерении напасть на меньшинство в своей стране.

Возможности дипфейков подорвать авторитет как кандидатов в первые лица государства, так и непосредственно первых лиц государства практически неограничен. Вероятно, одним из первых, но не последним свидетельством влияния дипфейков на избирателей стали парламентские выборы в Индии, прошедшие в мае этого года. Цифровые фальшивки, которые в лице звёзд Болливуда с экранов призывали не голосовать за партию Моди «Бхаратии джаната парти», вероятно, сыграли свою роль в том, что партия Моди показала самый низкий результат за 15 лет.

Вместе с тем западные эксперты в своих теоретических разработках идут намного дальше разрушения репутации отдельно взятого политика или даже его партии. В докладеBrookings «Дипфейки и международные конфликты» те же американские исследователи указывают на потенциально широкий спектр военных целей, где могут быть применены дипфейки, включая придания легитимности или справедливости войнам и государственным переворотам, вплоть до фальсификации фактов нарушения прав человека или приказов военного командования. Всё это Д. Байман и В. Субраманьян при определённых обстоятельствах считают возможным назвать «ответственным использованием дипфейков», хотя и указывают, что использование дипфейков компрометирует демократическое правительство.

Американские журналисты свидетельствуют, что Командование специальных операций ВС США (SOCOM) прорабатывает сценарии проведения интернет-пропаганды с использованием поддельных видеороликов, созданных ИИ. В декабре 2023 г. The Intercept сообщил, что SOCOM убедило X (бывший Twitter), в нарушение его внутренней политики, сохранить сеть фиктивных аккаунтов, которые распространяли фальшивые новости сомнительной подлинности, включая утверждение о том, что в иранских тюрьмах изымают органы граждан Афганистана.

Пропагандистское наступление на платформе X не использовало дипфейки, однако исследователи The Intercept обнаружили, что подрядчики Пентагона использовали аватары, созданные с помощью машинного обучения, чтобы придать фейковым аккаунтам определенную степень реализма.

Согласно документам, полученным в распоряжение The Intercept, SOCOM разрабатывает программы более глубокого анализа менталитета местного населения, чтобы создавать дипфейки, специализированные под конкретную местность и легче воспринимаемые целевой аудиторией.

Манипулируя общественным сознанием других стран с помощью дипфейков, Пентагон также усиленно работает над тем, чтобы сама Америка не стала жертвой видео, сгенерированных ИИ.

В Законе об ассигнованиях на национальную оборону США на 2021 финансовый год была включена директива, предписывающая Пентагону завершить «разведывательную оценку угрозы, которую представляют иностранные правительственные и негосударственные субъекты, создающие или использующие машинно-манипулируемые медиа (обычно называемые «глубокими фейками»)», включая «то, как такие медиа использовались или могут использоваться для ведения информационной войны».

Параллельно с поиском путей использования ИИ для вмешательства во внутриполитические процессы SOCOM разрабатывает прототипы программного обеспечения для обнаружения кампаний по дезинформации в режиме реального времени.

На данный момент Управление перспективных исследовательских проектов Министерства обороны США (DARPA)вооружило информационные войска США программами Media Forensics и Semantic Forensics, разработанными на основе глубокого обучения, обработки естественного языка и динамического сетевого анализа. Программы анализируют данные социальных сетей и веб-сайтов, выявляют аномально вирусный контент в Интернете для оценки угроз, а также вероятности того, что контент (текст, аудио, фото или видео) является поддельным.

Сегодня ИИ в подготовке цветных революций рассматривается западными спецслужбами во многом как инструмент для создания или выявления дипфейков, разрушающих репутацию политических лидеров. Однако потенциально функционал ИИ может расшириться.

ИИ способен анализировать огромные объемы данных из социальных сетей, новостных и других медиа, чтобы выявить настроения населения и понять, какие проблемы вызывают наибольшее недовольство. Это может послужить помощью в определении стратегии и тактики протестных акций, а также спрогнозировать вероятность успеха цветной революции. Теперь не нужно проводить тщательные социологические исследования в стране-жертве, ИИ справится с этим быстрее и с меньшими финансовыми затратами.

Примерно такие возможности предлагает программное обеспечение, созданное американской компанией Palantir. Данное ПО, разработанное на основе машинного обучения, предназначено для анализа больших данных, выявления скрытых закономерностей и тенденций, а также для поддержки принятия решений на основе полученных результатов.

Говоря о том, какую угрозу ИИ может представлять для политической жизни страны нельзя забывать, что, как и в отношении любого другого технического новшества, появлявшегося на протяжении истории человечества, реальная угроза никогда не заключалась в самих технологиях, она была в людях и в том, как люди используют технологии. Очевидно, что ИИ может усовершенствовать методы государственного переворота, но также может усовершенствовать методы его предотвращения.

ИИ предлагает ряд инструментов для изучения государственных переворотов. В частности, с помощью машинного обучения возможно осуществлять мониторинг новостей и социальных сетей, распознавая эмоциональную тональность текста, и, учитывая социально-экономические и иные сведения (например, лингвистические экспертизы высказываний политических/общественных деятелей), создавать прогностические модели конфликтов.

На основе обработки естественного языка ИИ может анализировать политический дискурс и делать заключения, склоняется ли общественное мнение в поддержку или против действующего президента. Выводы относительно общественного мнения ИИ основывает, например, на сравнении подачи одного новостного сюжета разными СМИ и Telegram-каналами, оценивая однородность или сбалансированность освещения, тем самым выявляя полярность и превалирующие настроения в публичном поле.

Такие инструменты могут сыграть значительную роль в предотвращении цветных революций, учитывая, что спровоцированные извне политические потрясения всегда подготавливаются мощной пропагандисткой кампанией.

По сути, речь идёт о прогнозировании будущих событий на основе текущих и исторических данных с последующим созданием прогнозных сценариев и возможных исходов. Результаты, которые выдаст машина, подключенная к различным базам данных, лишённая предрассудков и политических симпатий и способная без устали мониторить информационное пространство, проводя статистические расчёты быстрее, чем любой живущий человек, как минимум заслуживают внимания.

В 2017 г. Уппсальский университет (Швеция) совместно с Институтом исследований мира (Норвегия) получили грант от ЕС на 5 лет в размере 2,4 млн евро на разработку «системы раненого предупреждения о насилии». Идея состояла в том, чтобы использовать машинное обучение для прогнозирования политического насилия и предупреждения внутригосударственных конфликтов. Результатом этой работы стал алгоритм ViEWS, который генерирует ежемесячно обновляющиеся прогнозы насильственных конфликтов по всему миру на три года вперед. Анализируя различные данные (начиная с социально-экономической фактологии, исторического наследия и прецедентов в прошлом, заканчивая рельефом местности, близостью к природным ресурсам, уровнями местных осадков), система присваивает каждой стране оценку риска, указывая на вероятность возникновения конфликта в течение следующих 12 месяцев. Алгоритм ViEWSотслеживает наиболее напряжённые точки в Африке и на Ближнем Востоке, как на субнациональном, так и на государственном уровнях, и, в частности, производит единые прогнозы числа погибших в возможном государственном конфликте.

ИИ подобно другим технологическим достижениям несет в себе потенциал как для созидания, так и для разрушения. Его влияние на политическую сферу будет только расширяться, также как со временем нам стало сложно представить политику без X и других социальных сетей. И точно также деструктивные силы будут использовать эти технологии для дестабилизации, но в конечном итоге успех интеграции ИИ в общество будет зависеть от нашей способности ответственно подходить к использованию этих технологий, извлекая из них максимальную пользу и минимизируя риски.

Данные о правообладателе фото и видеоматериалов взяты с сайта «Российский совет по международным делам», подробнее в Правилах сервиса
Анализ
×
Сэмюэл Х. Альтман (Сэм Альтман)
Последняя должность: Генеральный директор (OpenAI)
19
Илон Рив Маск
Последняя должность: Генеральный директор, главный инженер (SpaceX)
248
Возняк Стив
Байман Дэниел
Линна Дэниел
OpenAI
Сфера деятельности:Связь и ИТ
65
БДП
Идеология:Индийский национализм, Индуистский национализм, Правоцентризм, социальный консерватизм, Интегральный гуманизм.
Уппсальский университет
Сфера деятельности:Образование и наука
2