Злонамеренное использование искусственного интеллекта обсудили на конференции…

7–9 июня 2022 г. в Ханты-Мансийске прошла Четвертая международная конференция «Информация и коммуникация в цифровую эпоху: явные и неявные воздействия», организованная Правительством Ханты-Мансийского автономного округа — Югры, Министерством цифрового развития, связи и массовых коммуникаций Российской Федерации, Комиссией РФ по делам ЮНЕСКО, Российским комитетом Программы ЮНЕСКО «Информация для всех» и Межрегиональным центром библиотечного сотрудничества. Конференцию открыли губернатор Югры Наталья Комарова и послы ряда стран.

Отдельная секция конференции была посвящена угрозам злонамеренного использования искусственного интеллекта (ИИ) и вызовам информационно-психологической безопасности. Председателем секции выступил ведущий научный сотрудник Дипломатической академии МИД России и координатор Международной группы исследователей угроз информационно-психологической безопасности, обусловленных злонамеренным использованием ИИ, доктор исторических наук, профессор Евгений Пашенцев.

Доклад руководителя фонда Digital India Foundation Арвинда Гупты затронул важный вопрос монополизма крупных технологических компаний в критических областях. Наблюдается отсутствие ответственности компаний за дезинформацию в социальных сетях, что, по мнению А. Гупты, означает нарушение принципа нейтральности контента. Для преодоления данной проблемы автор доклада рекомендовал ряд практических мер, среди которых можно отметить: открытый доступ к алгоритмам для исследователей с надлежащим стимулированием изучения ИИ, гармонизация политики в отношении алгоритмов в разных странах, введение законодательства, определяющего различные типы информации (личную, конфиденциальную, важную и т. д.).

Евгений Пашенцев в своем докладе подчеркнул, что в связи с нарастанием социально-политических и экономических противоречий в современном обществе, а также развитием геополитического соперничества и международной напряженности уже наблюдается масштабное злонамеренное использование ИИ на национальном и глобальном уровнях в форме дезинформационных кампаний. Преимущества использования ИИ в установлении повестки дня, по мнению Е. Пашенцева, все теснее связаны с количественными и качественными изменениями традиционных механизмов производства, доставки и управления информацией, новыми возможностями психологического воздействия на людей, а также ведения информационно-психологического противоборства. В частности, это (1) объем производимой и получаемой информации, (2) скорость, с которой информация может быть создана и распространена, (3) правдоподобность информации, (4) сила интеллектуального и эмоционального воздействия, (5) новые возможности аналитической обработки данных, (6) использование ресурсов прогнозной аналитики на основе ИИ, (7) новые методы убеждения и (8) новые возможности интеграции ИИ в процесс принятия решений. Доклад Е. Пашенцева подготовлен при финансовой поддержке РФФИ и ВАОН, проект № 21-514-92001 «Злонамеренное использование искусственного интеллекта и вызовы информационно-психологической безопасности в Северо-Восточной Азии».

Ведущий научный сотрудник Института Европы Российской академии наук, член Research MUAI Дарья Базаркина обозначила текущие и будущие угрозы использования ИИ террористическими организациями и террористами-одиночками. Учитывая конвергенцию терроризма и киберпреступности, террористические организации и террористы-одиночки могут активно использовать механизмы социальной инженерии в своих психологических операциях. Эта угроза может стать еще более актуальной в связи с развитием и распространением технологий ИИ, которые при злонамеренном использовании могут облегчить задачи социальной инженерии даже преступникам, не обладающим специальными техническими знаниями. Террористы используют ботов социальных сетей не только для постановки повестки дня, но и для координации активных и потенциальных боевиков и, как следствие, для расширения своей аудитории среди активных пользователей существующих продуктов ИИ.

Исследователь из Италии Питер Мантелло указал, что массовые кампании политической и идеологической обработки когда-то были прерогативой государства. Однако сегодня распространение недорогих или даже бесплатных ботов, которых легко создать, позволяет воинствующим экстремистским организациям установить аффективные связи с пользователями социальных сетей, чтобы мобилизовать их на радикальные и насильственные действия. П. Мантелло отметил антропоморфную привлекательность таких технологий ИИ, а также подчеркнул растущую зависимость современной войны от интеллектуальных машин и ее особую ценность для сторон, обладающих меньшими ресурсами или традиционным оружием в асимметричном конфликте.

Начальник отдела научных исследований Иркутского института (филиала) Всероссийского государственного университета юстиции Анна Бычкова доказала важность перехода от нравственных регуляторов ИИ к правовым: прошло время защищать информационно-психологическую безопасность (psychological security), апеллируя к нормам этики, наступает время норм права. Осознание рисков использования ИИ привело к разработке этических норм на уровне отдельных стран. Так, российский «Кодекс этики в сфере ИИ» — акт рекомендательного характера, содержащий этические нормы в сфере ИИ. Подход Китая принципиально иной. Этика в сфере ИИ не является самостоятельным предметом рассмотрения, а вместе с законодательством и регулированием ИИ составляет триаду, определяющую главную цель — создание ИИ, которому люди могут доверять (Trustworthy AI). Пока одни страны лишь робко призывают причастных к ИИ людей вести себя этично, Китай формирует комплексную систему этических, регулятивных и законодательных практик, позволяющих доверять ИИ.

Старший преподаватель Иркутского государственного университета Сергей Себекин указал, что существующее «традиционное» международное право пока не приспособлено для отнесения злонамеренного использования ИИ к актам агрессии, так как это было сформировано в «доинформационную» индустриальную эпоху, когда решающим фактором достижения военно-политических задач и влияния на стратегическую обстановку являлись обычные вооружения. В то же время потребность такой правовой классификации уже назрела. Решение вопроса квалифицирования применения ИИ в целях психологической дестабилизации требует поиска эквивалентных акту агрессии эффектов, которые в данном случае могут выражаться через: социально-политические, экономические и физические последствия.

Главный советник Белорусского института стратегических исследований Виталий Романовский указал, что цифровая дезинформация и формирование повестки дня становятся все более распространенной чертой внутриполитического ландшафта Африки. Например, в 81 стране мира социальные сети использовались для распространения пропаганды и дезинформации о политике. Среди этих стран — Тунис, Ливия, Египет, Судан, Гана, Нигерия, Эфиопия, Кения, Ангола, Зимбабве и Южная Африка. По мнению В. Романовского, ввиду растущих свидетельств политически мотивированного манипулирования СМИ в нескольких африканских государствах можно предположить, что технологии дипфейков на основе ИИ, вероятно, будут чаще использоваться для определения повестки дня.

Тему злонамеренного использования ИИ рассматривали и докладчики из других секций. Так, член Research MUAI Пьер-Эммануэль Томанн, президент международной ассоциации Eurocontinent, профессор Университета Жан Мулен, Лион III (Франция) полагает, что системный характер и эффект стратегического злонамеренного использования ИИ станут возможны с расширением пространства для маневра различных акторов в пространстве и времени. Данные обстоятельства чреваты ниспровержением международного порядка или глобальной дестабилизации. Исследования, посвященные геополитическим последствиям стратегического злонамеренного использования ИИ, а также его последствиям для ЕС и международной информационно-психологической безопасности, в настоящее время отсутствуют. Анализ рисков злонамеренного использования ИИ в международных отношениях, как правило, сосредоточен на угрозах демократии и возможностях их использования недемократическими режимами. Связь ИИ с международными отношениями, а также возможные изменения геополитической конфигурации также требуют дальнейшего изучения.

Профессор Национальной школы политических наук и управления (Румыния) и член Research MUAI Мариус Вакарелу в своем докладе исходил из понимания политической конкуренции как естественной ситуации, источника технического прогресса и экономического развития. При этом определенные стандарты политической конкуренции существуют как для лидеров, так и для экономик, армий, систем образования. М. Вакарелу поставил вопрос, могут ли разработки в области ИИ сегодня сбалансировать затраты на осуществление политической конкуренции (привести к снижению военных и экономических затрат) и станет ли ИИ важнейшим инструментом политической конкуренции в будущем.

Все участники обсуждения проблемы злонамеренного использования ИИ высказали свои практические рекомендации, которые могут быть использованы при подготовке итогового документа конференции. Проблема злонамеренного использования ИИ вызвала живой интерес у представителей научного сообщества и в политических кругах не только в России, но и у представителей зарубежных стран.

Анализ
×
Наталья Владимировна Комарова
Последняя должность: Губернатор (Правительство ХМАО-Югры)
44
Сергей Александрович Себекин
Последняя должность: Независимый эксперт (НП РСМД)
Пашенцева Е.
Пашенцев Евгений
Томанн Эмануэль