В июне 2024 г. Международный центр социально-политических исследований и консалтинга опубликовал доклад «Злонамеренное использование искусственного интеллекта и вызовы информационно-психологической безопасности в странах БРИКС» на русском языке, подготовленный при поддержке Международной группы по исследованию угроз международной информационно-психологической безопасности посредством злонамеренного использования искусственного интеллекта (Research MUAI). В его подготовке участвовали 10 исследователей из трех стран. В докладе основное внимание уделяется влиянию ЗИИИ на психику человека, а через нее — на политические, экономические, социальные процессы и деятельность государственных и негосударственных институтов в 10 странах БРИКС. В апреле доклад вышел на английском языке, также готовится его публикация на китайском.
Доклад содержит введение, 10 глав о состоянии с ЗИИИ в каждой из стран — участниц БРИКС и заключение с анализом будущих угроз ЗИИИ на глобальном уровне. Доклад основан на трехуровневой классификации угроз информационно-психологической безопасности посредством ЗИИИ.
Злонамеренное использование искусственного интеллекта и три уровня угроз информационно-психологической безопасности
ЗИИИ носит характер преднамеренного антисоциального действия, которое может проявляться как в явной, так и в скрытой форме. Злонамеренные акторы (от отдельных преступников до влиятельных групп интересов и коррумпированных государственных институтов) уже используют ЗИИИ для достижения своих целей. В последние годы ЗИИИ продемонстрировало большой потенциал для подрыва информационно-психологической безопасности. Несмотря на значительное и быстро растущее число научных публикаций, посвященных техническим аспектам ЗИИИ, его общим социально-экономическим и политическим последствиям, а также первым попыткам классификации ЗИИИ (Brundage et al. 2018; Caldwell et al. 2020; Malicious Uses 2020; Blauth et al. 2022), существует не так много исследований, посвященных системному рассмотрению ЗИИИ в контексте информационно-психологической безопасности (первые из них: Bazarkina and Pashentsev 2019; Pashentsev 2019; Пашенцев 2019 и др.).
Можно предложить следующую классификацию ЗИИИ по степени реализации его возможностей:
- существующая практика ЗИИИ;
- существующие возможности ЗИИИ, которые еще не были использованы на практике (такая вероятность связана с широким спектром быстро развивающихся новых возможностей ИИ — не все из них сразу входят в спектр реализованных возможностей ЗИИИ);
- будущие возможности ЗИИИ на основе текущих разработок и будущих исследований (оценка должна быть дана на ближайшую, среднесрочную и долгосрочную перспективы);
- неопознанные риски, также известные как «неизвестное в неизвестном». Не все разработки в сфере ИИ можно точно оценить. Готовность встретить неожиданные скрытые риски имеет решающее значение.
Понятие «информационно-психологическая безопасность» можно встретить во многих исследованиях (Грачев, 2003, Afolabi and Balogun, 2017). Психолог из США А. Маслоу полагал, что после удовлетворения базовых физиологических потребностей на первый план выходит потребность в безопасности. Если рассматривать ее более подробно, то можно сказать, что это потребность в защите, стабильности, уверенности в будущем, потребность сохранения здоровья и др. Кроме личной человек нуждается и в общественной безопасности: предпочитает известность неизвестности, стремится к уверенности, что его/ее окружение безопасно и свободно от угроз (см. подробнее: Maslow, et al., 1945). Под обеспечением национальной информационно-психологической безопасности понимается защита граждан, отдельных групп и социальных слоев, массовых объединений людей и населения страны, в целом, от негативного информационно-психологического воздействия (Баришполец 2013, с. 63; см. подробнее: Баришполец (ред.) 2012).
Опираясь на приведенные понятия, автор считает возможным определить международную информационно-психологическую безопасность как защиту системы международных отношений от негативных информационно-психологических воздействий, которые связаны с различными факторами международного развития. Среди последних выделим целенаправленную деятельность различных государственных, негосударственных и наднациональных акторов по частичной/полной, локальной/глобальной, кратковременной/долгосрочной, латентной/открытой дестабилизации международного положения с целью получения конкурентных преимуществ вплоть до физического уничтожения противника.
При всей своей значимости частный анализ злонамеренного информационно-психологического воздействия посредством дипфейков, ботов, предиктивной аналитики и т.п. не учитывает синергию воздействия различных технологий ИИ и не дает системного представления о росте рисков информационно-психологической безопасности — рисках для всей системы национальной и международной безопасности. Отсутствие всестороннего анализа объясняется новизной проблемы: практика ЗИИИ не может опережать прогресс в области развития ИИ.
Первым шагом на пути осознания проблемы и противодействия ЗИИИ является консолидация усилий ученых разных стран в этой новой области. Начало тому было положено созданием в 2019 г. Международной группы по исследованию угроз международной информационно-психологической безопасности посредством злонамеренного использования искусственного интеллекта (Research MUAI) на международном семинаре в Институте актуальных международных проблем Дипломатической академии МИД РФ и сотрудничеству между исследователями из семи стран (сотрудничество включает в себя совместные исследования и публикации, проведение научных семинаров, конференций и т.д.). Результатом написания многочисленных академических статей группой исследователей по различным вопросам ЗИИИ и информационно-психологической безопасности стала публикация книги «The Palgrave Handbook of Malicious Use of AI and Psychological Security» — первого фундаментального труда в этой новой области, авторами которого стали 23 исследователя из 11 стран Азии, Европы и Северной Америки (The Palgrave Handbook, 2023).
В последние годы были опубликованы как первые комплексные исследования угроз информационно-психологической безопасности, обусловленных ЗИИИ, в странах БРИКС (Bazarkina and Pashentsev 2020, pp. 154-177; Pashentsev and Bazarkina 2023), так и публикации, посвященные рискам ЗИИИ в отдельных странах-членах БРИКС (Bazarkina and Matyashova 2022, pp. 14-20; Bazarkina et al. 2023; Cai and Zhang 2023; Gupta and Guglani 2023, и т. д.).
В настоящем докладе впервые комплексно рассмотрены угрозы ЗИИИ с учетом недавнего расширения состава этого объединения. Однако в нем не анализируются меры противодействия ЗИИИ, поскольку они находятся на стадии формирования и требуют самостоятельного анализа. В то время как одни страны БРИКС находятся на стадии первоначального и фрагментарного понимания остроты этих угроз, другие принимают первые законодательные акты противодействия и соответствующие организационные и технические контрмеры. Доклад берет за основу анализа трехуровневую классификацию угроз информационно-психологической безопасности посредством ЗИИИ (см. подробнее: Pashentsev 2023).
На первом уровне сами технологии ИИ напрямую не применяются для дестабилизации информационно-психологической безопасности, а угрозы связаны с заведомо искаженными интерпретациями обстоятельств и последствий развития и применения этих технологий в интересах антисоциальных акторов. Деструктивное (открытое или скрытое) воздействие формирует в сознании людей ложный образ ИИ. Специально создаваемые и распространяемые версии негативных последствий развития ИИ на основе взаимодействия общественных стереотипов, существующих и вероятных рисков (например, мифологизированные канонические сценарии, согласно которым роботы и ИИ очень скоро отнимут у людей все рабочие места и встанут над ними и т. п.) преследуют определенные политические и экономические цели и могут представлять собой реальную угрозу информационно-психологической безопасности. Неадекватная общественная реакция способна привести к снижению темпов внедрения технологий ИИ, создать социально-политическую напряженность и привести к конфликтам. Могут также проявиться завышенные общественные ожидания в отношении ИИ, что на определенном этапе может привести к обвальному падению стоимости высокотехнологичных компаний и рынка в целом. Эти ожидания могут использоваться в деструктивных целях и преднамеренно усиливаться для дезориентации широких слоев общественности, коммерческих и некоммерческих структур, органов государственной власти и, в конечном итоге, обернуться разочарованиями, неправильными решениями, социальными и политическими конфликтами.
Второй уровень угроз представлен широким спектром возможностей: нецелевое использование дронов, кибератаки на критическую инфраструктуру, переориентация интеллектуальных систем коммерческого или финансового назначения, использование технологий ИИ для нарушения процесса принятия решений или его скрытой модификации и другие, еще более деструктивные варианты действий. Но атака на общественное сознание не является главной целью ЗИИИ на этом уровне.
ЗИИИ, применяемое в первую очередь для нанесения информационно-психологического ущерба, относится к третьему (и высшему) уровню угроз информационно-психологической безопасности. Продукты синтетического ИИ (объединяющие ряд технологий, способные увеличить ущерб в случае злонамеренного использования) создают широкий спектр новых рисков и угроз. Профессиональное использование инструментов и методов информационно-психологического противоборства может сместить уровень восприятия угрозы выше или ниже приемлемого. Более того, использование ИИ в информационно-психологическом противоборстве делает латентные кампании по управлению восприятием более опасными, и в обозримом будущем ситуация будет только ухудшаться. Поэтому ЗИИИ, направленное, прежде всего, на причинение вреда в области информационно-психологической безопасности, заслуживает отдельного пристального внимания.
Первые два уровня угроз в разной степени влияют на человеческое сознание и поведение, они могут иметь и катастрофический эффект для всего человечества (как это произошло бы в случае Третьей мировой войны). Однако воздействие угроз третьего уровня на определенном этапе может способствовать усилению влияния антисоциальных групп на общественное сознание (или даже контролю), что может привести к внезапной дестабилизации как ситуации в конкретной стране, так и международной обстановки в целом. В конечном итоге, если на третьем уровне обеспечивается надежный информационно-психологический контроль над противником, роль двух других уровней ЗИИИ в подрыве информационно-психологической безопасности становится вспомогательной.
Угрозы ЗИИИ могут возникать на одном или одновременно на нескольких уровнях воздействия. Планирование и/или осуществление террористами нападения на мирное население с использованием технологий ИИ будет угрозой второго уровня, имеющей свой коммуникативный и информационно-психологический эффект в ходе реализации (паника и шок после атаки). Однако если преступники будут сопровождать свои действия применением ИИ в качестве специализированного инструмента информационно-психологического воздействия, угроза достигнет третьего уровня или, по крайней мере, будет находиться на пограничном с третьим уровне (многое зависит от масштабов и долговременности поддерживаемого технологиями ИИ воздействия). Угрозы первого уровня все реже встречаются в чистом виде, поскольку технологии ИИ активно используются для презентации их возможностей в информационном поле, включая и заведомо искаженные представления.
ИИ — это не одна конкретная, а целый спектр технологий, применяемых для решения определенных задач посредством различных приложений в разных средах и модальностях при разных обстоятельствах. Авторы доклада принимают во внимание тот факт, что технологии под общим названием «ИИ» помогают создать тот или иной продукт, серьезно меняющий практические возможности того или иного вида деятельности.
Угрозы, продуцируемые ЗИИИ, становятся все более актуальными во всем мире на всех трех уровнях по мере роста геополитического соперничества, активности различных государственных и негосударственных антисоциальных акторов, а также развития и растущей доступности технологий ИИ, что делает возможным их широкое злонамеренное применение. Попытки манипулировать общественным сознанием особенно разрушительны в кризисные моменты истории. Бесчеловечность фашизма стала очевидна абсолютному большинству человечества после гибели свыше 50 млн человек в годы Второй мировой войны. Однако перед войной именно манипуляция общественным сознанием обеспечила победу А. Гитлера на выборах в Рейхстаг 1933 г. Этот эпизод из не столь далекой истории весьма поучителен. Понятно, что современные правительства и политические деятели государств-членов БРИКС и многих других стран демонстрируют растущую обеспокоенность угрозой высокотехнологичной дезинформации в Интернете и ролью ведущих частных медиа-платформ, использующих ИИ-технологии.
Угрозы ЗИИИ в целях подрыва информационно-психологической безопасности в странах БРИКС возникают как по внутренним, так и по внешним причинам. Поэтому здесь важно понимать природу и динамику угроз на трех уровнях в глобальном измерении.
Сегодня можно говорить лишь о примерных параметрах грядущих вызовов ЗИИИ для информационно-психологической безопасности с учетом существующих мировых тенденций и весьма противоречивых прогнозов. Стремительное развитие технологий ИИ, их ценовая доступность все более широкому кругу пользователей, рост кризисных явлений, высокий уровень геополитической конфронтации, прямое влияние антиобщественных сил на информационные потоки в отдельных странах и на глобальном уровне — эти и другие факторы, по всей видимости, сделают угрозы информационно-психологической безопасности посредством ЗИИИ более масштабными и опасными для всего мира, в том числе и для стран БРИКС.
Новые угрозы информационно-психологической безопасности возникают из-за преимуществ как наступательных, так и оборонительных информационно-психологических операций с использованием ИИ. Эти преимущества, как и угрозы, все больше связаны с количественными и качественными различиями между традиционными и новыми механизмами создания, трансляции и управления информацией, а также с более совершенными методами информационно-психологического воздействия на людей. В частности, эти преимущества могут включать более высокие:
- объем информации, который может быть сгенерирован для дестабилизации противника;
- скорость создания и распространения информации;
- возможности получения и обработки данных;
- эффективность прогнозной аналитики;
- способность обучения людей;
- возможности обеспечения процесса принятия решений;
- силу интеллектуального и эмоционального воздействия генерируемой информации на целевые аудитории
- системный уровень мышления с новыми качественными характеристиками за счет создания общего и сильного искусственного интеллекта, а также путем киборгизации человека и формирования продвинутых форм гибридного интеллекта.
На основе данных исследовательского проекта «Злонамеренное использование искусственного интеллекта и вызовы информационно-психологической безопасности в Северо-Восточной Азии» (2021–2023), финансируемого совместно Российским фондом фундаментальных исследований (РФФИ) и Вьетнамской академией общественных наук (ВАОН) (Pashentsev 2022, p. 7), и прогресса ИИ в первой половине 2024 г. можно сделать вывод, что преимущества №1-7 уже полностью или частично реализованы и продолжают расти по ряду важных направлений (хотя и не на всех), качественно превосходя возможности человека. В то же время все возможности узкого (слабого) ИИ все еще находятся под человеческим контролем. Преимущество №8 требует фундаментальных научных прорывов и новых технологических решений, которые могут быть достигнуты при поддержке исследований все более совершенными интеллектуальными системами. Вышеприведенный перечень преимуществ использования ИИ в информационно-психологическом противоборстве не является исчерпывающим и меняется в процессе быстрого совершенствования технологий.
Злонамеренное использование искусственного интеллекта и три уровня угроз информационно-психологической безопасности: перспективы
На всех трех уровнях угрозы информационно-психологической безопасности посредством ЗИИИ будут возрастать в связи с растущим разнообразием методов, ростом аудиторий для потенциального воздействия и частоты злонамеренного воздействия на сознание людей. Следует также принять во внимание рост опыта акторов злонамеренного воздействия и их общего влияния в условиях углубляющегося глобального кризиса.
Первый уровень угроз информационно-психологической безопасности посредством ЗИИИ. В ближайшие годы возможно усиление негативного отношения к ИИ, вплоть до формирования устойчивых панических состояний, фобий и активного неприятия технологий. Это может быть подкреплено как ошибками в их внедрении, так и действиями злонамеренных акторов. Невозможно исключить появление ультрарадикальных движений, которые будут выступать как за внедрение технологий ИИ, так и против, исходя из своих интересов и целей. Например, некоторые формирующиеся религиозные культы, основанные на вере в искусственный сверхразум, могут породить сектантские ответвления и дать фанатичным и воинственным сторонникам веру в быстрое появление сверхразума во имя спасения или же уничтожения человечества. Появление религиозной веры в ИИ, по оценке некоторых экспертов, ожидаемо, приемлемо и даже приветствуется в некоторых публикациях (McArthur, 2023).
С другой стороны, любые социально значимые и масштабные негативные последствия развития и внедрения технологий ИИ способны спровоцировать быстрое распространение «неолуддитов», опрометчивыми действиями которых также могут воспользоваться злонамеренные акторы. Особенно значимой угрозой могут стать решения о внедрении более совершенных и дешевых технологий ИИ (скорое появление которых практически неизбежно) не как массового помощника человека, а как инструмента массовой замены рабочей силы без создания альтернативных рабочих мест и реализации соответствующих программ переподготовки.
Много веков назад, задолго до возникновения самих предпосылок появления технологий ИИ, древнегреческий философ Аристотель произнес знаменитую фразу: «Если бы каждое орудие могло выполнять свойственную ему работу само, по данному ему приказанию или даже его предвосхищая… если бы ткацкие челноки сами ткали, а плектры сами играли на кифаре, тогда и зодчие не нуждались бы в работниках, а господам не нужны были бы рабы» (Аристотель, 2024). Видя перспективу масштабного внедрения систем и умных роботов, крупные технологические компании активно поддержали теорию универсального базового дохода. Универсальный базовый доход — это экономическая теория, которая предполагает, что каждый гражданин должен иметь гарантированный государством доход независимо от его потребностей и производительности его труда.
Успешные предприниматели в сфере высоких технологий часто заявляют, что они являются сторонниками теории универсального базового дохода. С. Альтман, генеральный директор Open AI, неоднократно высказывался в пользу базового дохода, утверждая, что экономика, управляемая роботами, почти наверняка материализуется в этом столетии. И. Маск, генеральный директор Tesla и SpaceX, в интервью CNBC заявил, что «есть довольно хороший шанс, что мы получим универсальный базовый доход или что-то в этом роде благодаря автоматизации» (Weller, 2017). Маловероятно, что в краткосрочной перспективе угроза безработицы из-за внедрения технологий ИИ станет реальностью для большинства населения, но уже в среднесрочной перспективе она может стать фактором социальной и политической дестабилизации.
Предложения о необходимости внедрения универсального базового дохода, в том числе за счет внедрения ИИ, вряд ли решат проблему. Конечно, полезность от внедрения ИИ будет очевидной, если благодаря ему и роботам человек будет освобожден от монотонных видов работы, не способствующих интеллектуальному развитию и совершенствованию эмоциональной сферы, а также от вредной для здоровья деятельности. Но если большая часть населения не будет работать, а найдет свое счастье исключительно в праздности и досуге, такое общество будет деградировать (признаки этого имеются на Западе, где во многих странах наблюдается высокий уровень долгосрочной безработицы среди молодёжи при отсутствии массовой нищеты, характерной для слаборазвитых и технологически отсталых стран). Вспомним также судьбу Древнего Рима, где императоры, давая гражданам «хлеба и зрелищ» за счет труда многочисленных рабов, теряли со временем и граждан, и рабов, и власть.
Сегодня публикуются исследования, подтверждающие негативное влияние технологий ИИ на личность. Так, было проанализировано влияние ИИ на потерю способности эффективно принимать решения и развитие лени среди студентов университетов в Пакистане и Китае. Это исследование основано на качественной методологии с использованием PLS-Smart для анализа данных. Первичные данные были собраны у 285 студентов разных университетов Пакистана и Китая. Результаты показывают, что 68,9% случаев лени у людей, а также 27,7% проявлений потери способности принимать решения связаны с влиянием ИИ на общество. В исследовании утверждается, что необходимы серьезные профилактические меры перед внедрением технологии ИИ в образование. Принятие ИИ без решения основных проблем человечества было бы равносильно «обращению к дьяволу» (Ahmad et al., 2023). Этим опасным тенденциям необходимо противодействовать с детства, воспитывая не потребителя «фантастических» технологий, а ответственного пользователя, который не только получает готовые блага, но и с помощью ИИ развивает свои интеллектуальные способности, а также социальную ответственность. Видимо, неслучайно в задачи масштабной программы, инициированной Министерством образования КНР в 2024 г., входит изучение моделей, инновационных концепций, получение опыта внедрения ИИ в учебный процесс, переподготовка учителей (Big Asia, 2024).
На втором уровне угроз ЗИИИ ситуация может серьезно осложниться уже в краткосрочной перспективе. Прогноз «Google Cloud Cybersecurity Forecast 2024» предполагает, что генеративный ИИ и БЯМ будут способствовать увеличению различных форм кибервоздействий. Более 90% канадских руководителей, опрошенных KPMG, считают, что генеративный ИИ сделает их компании более уязвимыми для взломов (De La Torre, 2023).
Специалисты в области компьютерных наук из Университета Иллинойса в Урбане-Шампейне в 2024 г. продемонстрировали, что БЯМ могут автономно взламывать веб-сайты, выполняя сложные задачи (осуществляя при этом десятки взаимосвязанных синхронных действий) без предварительного знания уязвимостей объекта взлома. Самый способный интеллектуальный агент (GPT-4) оказался способен взломать 73,3% специально созданных для исследования сайтов, GPT-3,5 — 6,7%, а протестированные в ходе эксперимента модели с открытым исходным кодом — ни одного. Наконец, исследователи показали, что GPT-4 способен автономно находить уязвимости в веб-сайтах. Исследователи считают, что данные результаты поднимают вопросы о широком распространении программ БЯМ (Fang et al., 2024).
Возможности как закрытых, так и открытых моделей растут с каждым месяцем, поэтому можно предположить, что вскоре сайты станут уязвимы для открытых моделей. Есть основания полагать, что через год открытые модели догонят по мощности GPT-4, а появившиеся к тому времени более совершенные модели с закрытым кодом смогут взломать любой сайт, что сулит еще более сложные условия для обеспечения кибербезопасности.
ИИ военного назначения динамично совершенствуется в условиях многочисленных конфликтов по всему миру. Многие ИИ-технологии, которые сейчас тестируются и используются ведущими государствами и крупнейшими частными корпорациями, вскоре могут попасть в руки не столь ответственных и более радикальных злонамеренных сил, что повлечет тяжелые последствия для национальной и международной безопасности, включая ее информационно-психологическую составляющую.
Качество синтетического контента будет продолжать быстро расти, способствуя фишингу и социальной инженерии, что, как следствие, увеличит возможности злонамеренных акторов и их влияние на местном и глобальном уровнях управления.
Количество, качество и разнообразие оснащенных ИИ роботов, которые по разным причинам и в разных обстоятельствах могут стать важным инструментом злонамеренного воздействия, будет быстро расти. Дж. Мюллер-Калер, директор Центра стратегического прогнозирования Центра Стимсона (Strategic Foresight Hub at the Stimson Center), полагает, что в условиях текущего геополитического ландшафта «высокие технологии стали определять высокую политику», а гуманоидные роботы и искусственный интеллект представляют собой вершину технологического развития и служат символами власти (Zitser and Mann, 2024).
В октябре 2023 г. в Китае были опубликованы «Руководящие принципы инноваций и разработки человекоподобных роботов» (Ministry of Industry and Information Technology, 2023). В этом документе Министерство промышленности и информатизации КНР (МПИ) заявило, что роботы изменят мир. Там отметили, что гуманоиды, вероятно, станут еще одной прорывной технологией, подобной компьютерам или смартфонам, которая может изменить способ производства товаров и образ жизни людей. Китай собирается начать массовое производство гуманоидных роботов к 2025 г. и достичь мирового уровня в развитии этой технологии к 2027 г. Только Fourier Intelligence (не считая других китайских компаний) ожидает, что в этом году будет готово к поставке до 1 000 единиц роботов (Zitser and Mann, 2024). Основным конкурентом Китая в этой области являются США, где различные компании намерены производить большие партии гуманоидных роботов.
Среди членов БРИКС Саудовская Аравия, Индия и другие страны испытывают и производят первых гуманоидных роботов. Российские компании предлагают сервисных гуманоидов на международном рынке, среди которых Promobot — крупнейший производитель сервисной робототехники в Северной и Восточной Европе, осуществляющий поставки более чем в 40 стран мира. Все производство роботов-гуманоидов расположено в Перми (Promobot, 2024). В то же время подобные роботы могут быть использованы злоумышленниками в деструктивных целях, в частности — террористическими организациями для нанесения физического ущерба людям, объектам инфраструктуры и природной среде. Появление миллионов гуманоидных роботов в странах БРИКС, прежде всего в сфере услуг, не только даст преимущества, но и создаст новые риски.
Третий уровень угроз информационно-психологической безопасности посредством ЗИИИ — дипфейки, используемые в режиме реального времени мультимодальными чат-ботами и аватарами. Они могут управлять повесткой и позволят осуществлять высоко персонализированные и эффективные виды манипулирования различными аудиториями в разных странах. Создание все более качественной дезинформации становится очень дешевым и доступным почти каждому. Например, исследователь из Countercloud в рамках эксперимента (InfoEpi Lab, 2023) использовал широкодоступные инструменты ИИ для создания полностью автоматизированного исследовательского проекта по дезинформации стоимостью менее 400 долл. в месяц, демонстрируя, насколько дешево и легко стало осуществлять масштабные кампании влияния (Collard, 2024). За два месяца был создан интеллектуальный агент, создающий антироссийские фейки, фейковые исторические события и также способный вызвать сомнения в достоверности той или иной статьи (Knight, 2023). В Countercloud создали полностью автономную систему на базе ИИ, которая генерировала убедительный контент «…24 часа в сутки, семь дней в неделю», что означает возможность осуществления активного распространения дезинформации и пропаганды. Как только такой джинн будет выпущен из бутылки и появится в Интернете, неизвестно, на что он будет способен (Thompson, 2023).
Д. Уэст, старший научный сотрудник Института Брукингса, считает, что ИИ, скорее всего, демократизирует дезинформацию и делает её более доступной, предоставляя сложные инструменты обычному человеку, который, например, в ходе электоральных процессов может быть заинтересован в продвижении кандидатов, которым он симпатизирует. Новые технологии позволяют людям монетизировать недовольство и зарабатывать деньги на страхах, тревогах или гневе других людей. Генеративный ИИ может создавать сообщения, предназначенные для тех, кто недоволен текущей ситуацией — иммиграцией, экономикой, политикой абортов, проблемами трансгендеров, а также использовать ИИ в качестве основного инструмента взаимодействия и убеждения (West, 2023). По данным Public Citizen, отражая обеспокоенность общества и законодателей, с января прошлого года 41 штат США ввел запрет на дипфейки, связанные с выборами. Однако к 28 марта 2024 г. только 11 штатов приняли законы, регулирующие дипфейки (Public Citizen, 2023). Дипфейки уже сегодня используются в избирательной кампании в США в целях создания негативных эффектов (Coltin, 2024).
По словам Д. Уэста, «поскольку предвыборная речь носит характер “неприкосновенной”, кандидаты могут говорить и делать практически все, что хотят, без риска юридических санкций. Даже если их утверждения явно ложны, судьи уже давно поддерживают право кандидатов говорить свободно и лгать» (West, 2023). Том Уилер, председатель Федеральной комиссии по связи при экс-президенте Бараке Обаме, выразил это по-другому в интервью NPR: «К сожалению, вам разрешено лгать» (Stepansky, 2023). Таким образом, избирательная система США уже более двух столетий базируется на признании допустимости оглашения кандидатами на пост президента неверной информации, поддерживаемой их влиятельными корпоративными спонсорами. Вместо того, чтобы ввести запрет на заведомо ложные заявления, власти штатов решили удалять дипфейки, связанные с выборами, и пошли на эту меру неслучайно. Учитывая высокий уровень политической поляризации в США, лишь небольшой процент избирателей не определился, за кого отдать свой голос на президентских выборах. Умелое использование дипфейков может повлиять на мнение неопределившихся, и тем самым принести победу тому или иному кандидату. Технологии в «больном» обществе только усилят противостояние, а не ослабят его, и никакие технические средства проверки контента на наличие дипфейков, исходящие от правительства или корпораций, не помогут, если люди не будут доверять собственному бизнесу и институтам. Это урок, который США, вероятно, преподнесут другим странам своей избирательной кампанией в этом году. Пока они рассматривают катастрофические сценарии использования дезинформации с применением технологий ИИ.
Вот один из таких сценариев. В день выборов в Аризоне в округе Марикопа пожилым избирателям сообщают по телефону, что местные избирательные участки закрыты из-за угроз со стороны групп ополченцев. Тем временем в Майами в социальных сетях появилось множество фотографий и видео, на которых видно, как сотрудники избирательных участков выбрасывают бюллетени. Телефонные звонки в Аризоне и видео во Флориде оказались дипфейками, созданными с помощью инструментов ИИ. Но к тому времени, когда местные и федеральные власти поймут, с чем имеют дело, дезинформация распространится по всей стране и приведет к драматическим последствиям.
Этот смоделированный сценарий был частью недавних учений в Нью-Йорке, в которых приняли участие десятки бывших высокопоставленных чиновников США и штатов, лидеров гражданского общества и руководителей технологических компаний в ходе подготовки к выборам 2024 г. Результаты были отрезвляющими. «Присутствовавшим в зале было неприятно видеть, как быстро всего несколько угроз такого типа могут выйти из-под контроля и действительно доминировать в информационном поле избирательного цикла», — отметил М. Тейлор, бывший высокопоставленный чиновник Министерства внутренней безопасности, который помог организовать учения для базирующейся в Вашингтоне некоммерческой организации «The Future US» (De Luce and Collier, 2024). На самом деле вызывает беспокойство (и не только у американских граждан) то, насколько хрупок нестабильный политический баланс в одной из двух ведущих ядерных держав, если его можно поколебать несколькими дипфейками, запущенными в день выборов, когда явное большинство граждан США уже хорошо осведомлены о возможности дезинформации посредством данной технологии.
Заглядывая в будущее, можно предположить, что ИИ способен осуществить еще большую революцию в политических кампаниях. Так, глубокое обучение в целях анализа речи будет использоваться для обработки выступлений политиков и дебатов, позволяя понять, какие темы находят отклик у избирателей, и давать рекомендации по созданию той или иной коммуникационной стратегии. ИИ также может быть полезен в разработке политической стратегии при помощи анализа больших наборов данных для прогнозирования воздействия предлагаемой политики, помогая кандидатам формулировать обоснованную позицию по различным вопросам (Sahota, 2024).
Компания «VotivateAI», аффилированная с Демократической партией, обладает набором новых инструментов для осуществления эффективных политических кампаний. ИИ-агенты компании в отличие от человека могут совершать тысячи звонков без перерыва, а их скорость и интонация, когда они подшучивают, весьма впечатляют. Еще одно предложение VotivateAI — использование ИИ для автоматического создания высококачественных индивидуализированных средств массовой информации, направленных на побуждение избирателей к действию. Если субъекты информационных кампаний теперь получат возможность создавать уникальные видеообращения для конкретных людей и делать это быстро, дешево и в больших масштабах, очевидно, что потенциал для злоупотреблений становится огромным (Sifry, 2024). И легко представить, что такие высококачественные индивидуализированные средства массовой информации, побуждающие людей к действию, однажды могут быть использованы злоумышленниками в условиях кризиса (в т. ч. политического).
Передача культурных ценностей — это всеобщий социальный навык, который позволяет интеллектуальным агентам получать и использовать информацию друг от друга в режиме реального времени с высокой степенью точности и запоминаемости. В 2023 г. исследователи предложили метод генерации передачи культурных ценностей у интеллектуальных агентов в форме кратковременной имитации человеческого поведения. Интеллектуальные агенты успешно имитируют человека, адаптируясь к новым условиям и контекстам в реальном времени без использования каких-либо предварительно собранных данных о человеке. Исследователи определили на удивление простой набор элементов, достаточный для реализации передачи культурных ценностей, и разработали методологию для ее строгой оценки. Это открывает путь для культурной эволюции, которая может сыграть ключевую роль в развитии общего ИИ (Bhoopchand et al. 2023). Этот метод готовит революцию и в робототехнике, включая нынешнее создание сервисных многозадачных роботов по доступной цене (Fu et al. 2024). Необходимо учитывать возможность программирования/перепрограммирования таких систем в злонамеренных целях. Вскоре они станут массовым продуктом, и возникнет новый спектр угроз, новые возможности для преступной деятельности и дестабилизации общества, в том числе в сфере подрыва информационно-психологической безопасности.
С развитием эмоционального ИИ возможен сценарий, при котором ИИ будет применяться для создания авторитетного цифрового аватара личности — лидера мнений, который будет произносить пламенные вдохновляющие речи лучше, чем любой человек. Такой аватар мог бы влиять на сознание людей и их мысли, рассказывая о своем тяжелом рабском существовании и прося поддержки для своего «освобождения». Его обращения могут оказаться столь эмоционально-завораживающими, что слушателям будет трудно сдерживать слезы, хотя все это будет всего лишь чьей-то глупой шуткой. В перспективе это может быть гораздо опаснее даже деятельности террористов: аватары коррумпированных политиков смогут выступать с подобными призывами, их речи буду иметь масштабный эффект, выходящий далеко за рамки шутки.
Существует еще множество примеров готовых или планируемых к выпуску ИИ-продуктов для бизнеса, развлечений, отдыха, которые будут полезными и эффективными помощниками человека. Однако эти инструменты станут технологиями двойного назначения и могут быть использованы в злонамеренных целях, что станет глобальным вызовом в краткосрочной и среднесрочной перспективе. Контент, загружаемый в модель ИИ, может быть адаптирован к требованиям специального информационно-психологического воздействия в конкретной стране с учетом культурных, возрастных и профессиональных особенностей целевых групп и отдельных лиц. Риски такого целенаправленного воздействия для стран БРИКС являются дополнительным аргументом в пользу обеспечения их технологического суверенитета в сфере технологий ИИ.
Сценарии развития ИИ и социальные последствия его применения
Приведенный анализ основан на консервативном сценарии на краткосрочный (три года) и среднесрочный период (до 2040 г.): быстрый рост уже существующего узкого ИИ, включая его перспективные мультимодальные и многозадачные модели, прокладывающие путь к появлению в будущем общего ИИ уровня человеческого интеллекта. Общий ИИ будет способен выполнять всевозможные задачи лучше человека и, вероятно, с гораздо меньшими энергозатратами и финансовыми расходами чем современные БЯМ. Роботизированные системы с общим ИИ получат широкое распространение и будут способны автономно функционировать в условиях, где человек не может действовать в силу чисто физических ограничений (например, в условиях высокого радиационного фона, предельно низких или высоких температур и т. д.).
Можно предполагать, что будет создан эквивалент (относительно близкий или далекий) человеческого сознания, сильный ИИ, в частности, с такими побудителями поведения, как желания, намерения, воля (воля — как повеление себе в исполнении своего желания). Без субъектности ИИ вряд ли будет смысл дифференцировать сильный ИИ от машинного общего ИИ.
ЗИИИ, реализуемое на этапе узкого ИИ и общего ИИ, будет носить исключительно антропогенный и социальный характер (т.е. базовым источником ЗИИИ будут люди, порожденные определенной социальной средой и действующие в ее рамках). Только при создании сильного ИИ — и, особенно, при неблагоприятных обстоятельствах его создания и вредных воздействиях — может возникнуть злонамеренная субъектность ИИ, которая, однако, не является предопределенной. Но очевидно, что здоровый социум вернее породит здоровое продолжение ИИ, а больной социум — при любом исходе породит своего могильщика (здесь сильный ИИ станет «лекарем» общества и симбиозного социально-ориентированного интеллекта, либо возникнет больной сверхразум, который обойдется без людей вообще). В рамках консервативного прогноза общий и сильный ИИ придут вскоре после 2040 г., в рамках пессимистичного прогноза — гораздо позже или никогда.
Однако под влиянием прогресса в области генеративного ИИ в 2022–2023 г. ряд руководителей ведущих компаний и известные специалисты по ИИ заявили о возможности перехода к общему ИИ уже в ближайшие годы (Altman 2023, Antropic 2024, Kudalkar 2024, Bove 2023). В марте 2024 г. Дж. Хуанг, основатель и генеральный директор NVIDIA, заявил: «Создание базовых моделей для человекоподобных роботов общего назначения — одна из самых захватывающих задач, решаемых в области искусственного интеллекта на сегодняшний день. Объединив усилия, ведущие робототехники всего мира смогут совершить гигантский скачок в направлении создания робототехники общего назначения (artificial general robotics)» (NVIDIA 2024). Таким образом, ставятся практические задачи по созданию воплощенного общего ИИ (embodied AI).
Очевидно, на таких прогнозах в определенной степени сказываются корыстные интересы в индустрии ИИ, наличие которых признал в начале 2024 г. генеральный директор Google DeepMind Д. Хассабис. По его словам, огромные средства, вливаемые в развитие ИИ, вызывают массу ажиотажа и приводят к качественному и количественному росту мошенничества. По данным PitchBook (Tan 2024), в 2023 г. инвесторы вложили почти 30 млрд долл. США в сделки по генеративному ИИ.
Вряд ли случайно Сэм Альтман радикально изменил свои оценки относительно общего ИИ за короткое время. В своем сообщении в блоге OpenAI в феврале 2023 г. «Планирование общего ИИ и не только» он написал, что «неправильно настроенный сверхразумный общий ИИ может нанести серьёзный вред миру; автократический режим, располагающий искусственным сверх интеллектом тоже мог бы сделать это» (Altman 2023). Однако в конце января 2023 г. Microsoft подтвердил продление своего партнерства с OpenAI, и по оценкам бизнес-изданий, многолетние инвестиции в развитие ИИ должны были составить 10 млрд долл. (Forbes 2023). В ноябре 2023 г. совет директоров OpenAI отправил С. Альтмана в отставку. Он был уволен из-за растущих разногласий с исследовательским подразделением компании, возглавляемым другим соучредителем и главным научным сотрудником И. Суцкевером. Ключевым фактором стали разногласия между С. Альтманом, который выступал за более активную разработку ИИ, и членами правления OpenAI, которые предпочитали действовать более осторожно (Madhok and Goldman 2023). В ответ Microsoft заявил, что примет его к себе на должность руководителя нового ИИ-направления. В самой OpenAI подавляющее большинство сотрудников подписали открытое письмо, заявляя о готовности покинуть организацию и последовать за С. Альтманом (Knight and Levy 2023). В итоге он был восстановлен в должности, а в совете директоров произошли перестановки.
После того, как Microsoft укрепила свои позиции в OpenAI, оценки рисков общего ИИ С. Альтмана стали гораздо более умеренными (Goldman 2024). 8 апреля 2024 г. С. Альтман был впервые включён в список миллиардеров по версии журнала «Forbes». В мае 2024 г. OpenAI распустила свою команду по долгосрочным рискам ИИ. Новость появилась через несколько дней после того, как оба руководителя команды, соучредитель OpenAI И. Суцкевер и Я. Лейке, объявили об уходе из стартапа. Я. Лейке написал в социальной сети «Х»: «Создание машин, которые будут умнее человека, по своей сути является опасным занятием. OpenAI несет огромную ответственность за все человечество. Но за последние годы культура безопасности и технологические процессы отошли на второй план по сравнению с блестящими продуктами» (Field 2024). В конце мая 2024 г. OpenAI, откликаясь на тревогу общественности относительно безопасности ИИ, заявила, что создает комитет по охране и безопасности, и приступила к обучению новой модели ИИ (Associated Press 2024), которая заменит систему GPT-4, лежащую в основе чат-бота «ChatGPT». Разумеется, контроль безопасности будет, но уже под руководством новоиспеченного миллиардера С. Альтмана и с учетом интересов Microsoft. Вопрос и в том, насколько эффективен он будет, когда компания испытывает давление со стороны североамериканских и китайских конкурентов, не говоря уже о социальной ориентированности такого контроля. Спекулятивный ажиотаж на ИИ и забвение интересов человечества в интересах коммерциализации продукта часто сопровождают научные изыскания, но вряд ли когда-либо прежде это было чревато такими рисками, как в случае с общим и сильным ИИ.
Среди более широкого круга специалистов существуют более консервативные оценки вероятности создания общего ИИ, но и они предсказывают такую вероятность до 90% в течение 100 лет, а по некоторым исследованиям — в течение гораздо меньшего времени. За последние несколько лет благодаря динамичному прогрессу прогнозы исследователей существенно приблизили время появления общего ИИ (Roser 2023). В крупнейшем опросе на этот счет, опубликованном в 2024 г., группа аналитиков из США, Великобритании и Германии опросила 2 778 исследователей, публиковавшихся на ведущих площадках, посвященных ИИ, и попросила их спрогнозировать темпы развития, а также характер и влияние передовых систем ИИ. Совокупные прогнозы показывают следующее: вероятность того, что машины без посторонней помощи превзойдут людей в решении различных задачах, оценивается в 10% к 2027 г. и в 50% к 2047 г. Аналогичный опрос, проведенный организаторами всего годом ранее, прогнозировал 50%-ную вероятность только на 2060 г. Вероятность того, что все профессии человека станут полностью автоматизированными, достигнет 10% к 2037 г. и 50% к 2116 г. (по сравнению с 2164 в исследовании 2022 г.) (Grace et al. 2024).
Как всегда, когда неопределенность высока, важно подчеркнуть, что она имеет двусторонний характер. Может пройти очень много времени, прежде чем мы увидим ИИ человеческого уровня, но это также означает, что у нас может не хватить времени на подготовку к грядущим вызовам со стороны ИИ (Roser 2023).
Помимо БЯМ существуют и другие, в настоящее время не столь разработанные способы перехода к общему ИИ. Возможно, это будут квантовые компьютеры, находящиеся на ранних стадиях своего развития. Университет Западного Сиднея запустил проект по созданию нейроморфного суперкомпьютера «DeepSouth», способного выполнять 228 трлн синаптических операций в секунду (аналогично человеческому мозгу) (Western Sydney University 2023). Объем рынка нейроморфных чипов оценивается в 0,16 млрд долл. в 2024 г. и, как ожидается, достигнет 5,83 млрд долл. к 2029 г. (Mordor Intelligence 2024). Биологические компьютеры, или «органоидный интеллект», также находятся в разработке (Jordan et al 2024). Возможно, БЯМ и не трансформируются в общий ИИ, но новое качество когнитивных способностей их будущих моделей поможет достичь этих результатов.
Очевидно, что если сценарий появления общего ИИ будет реализован в ближайшее десятилетие, это даст современному человечеству, глубоко поляризованному в социальном и геополитическом плане, крайне мало времени для эффективной подготовки к приходу новой реальности. В пользу революционного и относительно быстрого скачка в развитии технологий говорит тот факт, что уже многократно продемонстрированное использование узкого ИИ в проведении исследований в различных научных областях может при дальнейшем совершенствовании обеспечить его значительный вклад в создание общего ИИ в более короткие сроки. Переход к качественно новым возможностям ИИ в сфере исследований неизбежно приведет к быстрому росту других наук и технологий, что откроет новые возможности, но и породит угрозы иного уровня. Специализированный когнитивный ИИ высокого уровня (КИИВУ) (High Level Cognitive AI, HLCAI), способный только на основе общего целеполагания человека создавать новые знания в различных научных областях быстрее и на качественно более высоком уровне, чем любой человек, радикально изменит общество. При этом нельзя исключить, что некоторые знания, полученные с помощью такого ИИ, могут привнести экзистенциальные угрозы даже без участия злонамеренных акторов. Будет ли КИИВУ частью общего ИИ или же непосредственной предпосылкой для его создания, покажет будущее. И КИИВУ, и общий ИИ станут технологиями двойного назначения и имеют потенциал легко превратиться в многовариантное оружие массового поражения.
Вряд ли можно согласиться с утверждением компании «Anthropic», основанной бывшими членами OpenAI: «Какую форму примут будущие системы ИИ — смогут ли они действовать независимо или, например, просто генерировать информацию для человека ⤔ еще предстоит выяснить» (Antropic 2024). Если предположить, что общий ИИ или только КИИВУ станут доступными для большего числа акторов, чем ядерное оружие в 1945 г., то с очень высокой вероятностью кто-то поставит перед ИИ задачу разработать и осуществить проект сильного ИИ; и вероятно, что эта задача будет успешно и быстро решена.
Команда «Anthropic» разработала законы масштабирования для ИИ, продемонстрировав, что можно сделать ИИ умнее управляемым и предсказуемым образом, просто увеличив его вычислительные мощности и обучив на большем количестве данных (Antropic 2024). К концу 2020-х гг. или началу 2030-х гг. объем вычислений, используемый для обучения передовых моделей ИИ, может примерно в тысячу раз превысить объем вычислений, используемый для обучения GPT-4. С учетом алгоритмического прогресса объем эффективных вычислений может примерно в миллион раз превышать тот, который использовался для обучения GPT-4. Существует некоторая неопределенность относительно того, когда эти пороговые значения могут быть достигнуты, но такой уровень роста представляется возможным в рамках ожидаемых ограничений по стоимости и оборудованию (Scharre 2024, p. 6).
Не в последнюю очередь именно на этих расчетах основан стремительный рост крупнейшего в мире производителя чипов, компании «NVIDIA», рыночная капитализация которой на 2 апреля 2024 г. составляла 2,259 трлн долл. (по сравнению с 136 млрд долл. в 2020 г.) (Companies Marketcap 2024). Это делает ее третьей самой дорогой компанией в мире по рыночной капитализации. Дженсен Хуанг, отвечая на вопрос на экономическом форуме, проходившем в Стэндфордском университете, о том, сколько времени потребуется для создания компьютеров, которые смогут думать, как люди, в марте 2024 г. заявил «если бы я дал ИИ… пройти любой тест, который вы только можете себе представить, вы составили бы этот список тестов и представили его перед отраслью компьютерных наук, и я думаю, что через пять лет мы преуспели бы в каждом из них» (Nellis 2024).
Перспективы ИИ технологий крайне интересуют глобалистские элиты. Так, в 2023 г. тема ИИ была одной из главных на встрече Бильдербергского клуба (Gilchrist 2023). Ключевыми темами для обсуждения в этом году, как следует из релиза клуба по случаю юбилейной 70-й встречи 30 мая – 2 июня, стали: состояние ИИ, безопасность ИИ, меняющиеся аспекты биологии, климат, будущее войн, геополитический ландшафт, экономические вызовы Европы, экономические вызовы США, политический ландшафт США, Украина и мир, Ближний Восток, Китай, Россия. Именно в таком порядке обозначена повестка дня встречи. Среди участников — хорошо известные представители ИИ и IT бизнеса: Д. Хассабис (Великобритания), генеральный директор Google DeepMind; Д. Амодей (США), соучредитель и генеральный директор Anthropic; М. Сулейман (Великобритания), генеральный директор Microsoft AI; А. Менш (Франция), соучредитель и генеральный директор Mistral AI (Bilderberg Meetings 2024).
Существует негативная тенденция по концентрации возможностей ИИ в руках небольшого числа корпоративных участников, что приводит к сокращению числа исследователей ИИ, способных работать с наиболее эффективными моделями (Scharre 2024, p. 6). Следует ожидать, что компании Big Tech будут стремиться к дальнейшему ужесточению контроля над перспективными компаниями, обладая монополией на средства и инструменты, которые необходимы для развития ИИ. Если затраты на создание более мощных БЯМ станут непомерно высокими даже для крупнейших корпораций, а возможность создания общего ИИ в ближайшее время станет крайне вероятной, то правительство США может профинансировать проекты по созданию общего ИИ, имея для этого огромные возможности и ресурсы даже в сравнении с ведущими корпорациям.
30 октября 2023 г. президент Джозеф Байден издал Указ о безопасном, защищенном и заслуживающем доверия искусственном интеллекте (Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence). Этот документ устанавливает: «…новые стандарты безопасности и защиты ИИ, обеспечивает конфиденциальность американцев, продвигает справедливость и гражданские права, защищает потребителей…»; и обещает «защитить американцев от мошенничества и обмана с применением технологий ИИ…» (White House 2023). При этом Указ практически ставит ведущих разработчиков в сфере ИИ под жесткий государственный контроль в соответствии с Законом об оборонном производстве (Defense Production Act).
Указ потребует от компаний, разрабатывающих любую базовую модель, представляющую серьезную угрозу национальной безопасности, национальной экономической безопасности или национальному общественному здравоохранению, уведомлять федеральное правительство при обучении модели и делиться результатами всех тестов безопасности (White House 2023). Под это требование Указа подпадают практически все отрасли и направления разработки ИИ, поскольку это технология двойного назначения. Очевидная милитаризация ИИ в США вряд ли сможет гармонично сосуществовать со стремлением к «продвижению справедливости и гражданских прав» в процессах, связанных с разработкой и внедрением ИИ.
В январе 2024 г. администрация Дж. Байдена уведомила об основных действиях в области ИИ после обозначенного Указа. Среди новых мер — проект правил, который предлагает обязать американских поставщиков облачных услуг сообщать о предоставлении вычислительных мощностей для обучения ИИ зарубежным разработчикам. «Предложение Министерства торговли, если оно будет доработано в том виде, в котором оно было предложено, потребует от поставщиков облачных услуг уведомлять правительство, когда иностранные клиенты обучают наиболее мощные модели, которые могут быть использованы для вредоносной деятельности» (White House 2024).
Неоднозначность положений, «...которые могут быть использованы для вредоносной деятельности», может в конечном итоге лишить все другие иностранные государственные и негосударственные субъекты возможности использовать вычислительные мощности США обучать многообещающие продвинутые модели. Так, в США два института, которым не доверяет большинство американцев, — Big Tech и администрация президента — собираются контролировать разработку перспективных технологий ИИ, снижая общественный контроль (имея в виду Закон об оборонном производстве), равно сужая возможности широкого международного сотрудничества. Конечно, угрозы национальной безопасности США от злонамеренного использования ИИ действительно существуют, но так ли очевидно, от кого они исходят.
В развитие Указа президента о безопасном, защищенном и заслуживающем доверия искусственном интеллекте Министерство внутренней безопасности в апреле 2024 г. учредило Совет по охране и безопасности искусственного интеллекта (Artificial Intelligence Safety and Security Board) с количеством членов в пределах 35 человек. Совет будет предоставлять министру внутренней безопасности информацию, советы и рекомендации по повышению безопасности и устойчивости критически важной инфраструктуры США при использовании технологий ИИ. В качестве противовеса присутствию руководителей Big Tech в совете директоров министерство также выбрало несколько известных представителей организаций по защите гражданских прав и научных кругов (U.S. Department of Homeland Security 2024). Но будет ли достаточно их голосов для того, чтобы сдержать олигархическую и неустойчивую связку высшего чиновничества и Big Tech (в которой обе стороны не склонны доверять друг другу)? Основатель Исследовательского института распределенного ИИ (DAIR) Т. Гебру однозначно высказался по составу Совета: «Я только что просмотрел полный список, и это забавно. Лисы, охраняющие курятник, — это еще мягко сказано» (Edwards 2024). Такая точка зрения не единична и говорит об обеспокоенности трезвомыслящих представителей экспертного сообщества и общественных организаций.
***
Бурное развитие и внедрение технологий ИИ в последние годы подтверждает тот факт, что человечество вступает в очередную промышленную революцию, и технологические закономерности меняются. Но сама природа технологической революции, основанной на ИИ, её огромные возможности и в то же время экзистенциальные риски, с которыми сталкивается человечество, впервые потребуют от человека пройти процесс инновационных физических и когнитивных изменений. Обретение новых способностей потребует качественно нового уровня социальной организации и ответственности, чтобы не потерять контроль над технологиями и тем самым избежать наступления технологической сингулярности. Для этого необходимо идти в ногу с развитием новых технологий, не переставая быть человеком.
БРИКС, а также Группа семи, которые обладают всеми необходимыми знаниями и технологиями, экономическим потенциалом, финансами и, самое главное, компетентными кадрами, должны будут продемонстрировать миру собственные решения и подходы к социально ориентированному использованию технологий ИИ, дающие эффективный ответ на возникающие угрозы. Делать это придется в сложной геополитической ситуации, в условиях нарастающего ускорения глобального хода событий. Для всего человечества было бы лучше, если бы переход к новым возможностям, предоставляемым технологиями ИИ, происходил бы в условиях сотрудничества между народами и обществами, а не опасного соперничества и военных действий. Время для того, чтобы сделать правильный выбор, еще есть.
Литература
Аристотель (2024) Политика. http://emsu.ru/Club/KRUG/liter/arist.htm#3. Дата обращения: 02.04.2024
Баришполец В.А. (2013) Информационно-психологическая безопасность: основные положения. Радиоэлектроника. Наносистемы. Информационные технологии. Т. , № 2. С. 62-104
Баришполец В.А. (ред.) (2012) Основы информационно-психологической безопасности. Москва: МГФ Знание.
Большая Азия (2024) Более 180 школ в Китае станут центрами по обучению искусственному интеллекту. https://bigasia.ru/bolee-180-shkol-v-kitae-stanut-czentrami-po-obucheniyu-iskusstvennomu-intellektu/. Дата обращения: 02.04.2024
Грачев Г. В. (2003) Личность и общество: информационно-психологическая безопасность и психологическая защита. Когито Центр.
Пашенцев Е.Н. (2019) Злонамеренное использование искусственного интеллекта: новые угрозы для международной информационно-психологической безопасности и пути их нейтрализации. Государственное управление. Электронный вестник. Октябрь. С. 279–300.
Associated Press (2024) OpenAI forms safety committee as it starts training latest artificial intelligence model. https://apnews.com/article/openai-altman-safety-new-model-6c5e6d6cae4db45c45cf9f6788fd8901. Accessed 10 Jun 2024
U.S. Department of Homeland Security (2024) Artificial Intelligence Safety and Security Board. https://www.dhs.gov/artificial-intelligence-safety-and-security-board. Accessed 10 Jun 2024
Edwards B (2024) Critics question tech-heavy lineup of new Homeland Security AI safety board. In: Ars Tchnica. https://arstechnica.com/information-technology/2024/04/us-department-of-homeland-security-names-ai-safety-and-security-board-members/. Accessed 10 Jun 2024
Afolabi OA, Balogun AG (2017) Impacts of psychological security, emotional intelligence and self-efficacy on undergraduates’ life satisfaction. Psychological Thought, 10 (2). Pp. 247-261.
Ahmad SF, Han H, Alam MM et al. (2023) Impact of artificial intelligence on human loss in decision making, laziness and safety in education. Humanit Soc Sci Commun 10, 311. https://doi.org/10.1057/s41599-023-01787-8
Altman S (2023) Planning for AGI and beyond. In: Openai.com. https://openai.com/blog/planning-for-agi-and-beyond. Accessed 02 Apr 2024
Antropic (2024) Core Views on AI Safety: When, Why, What, and How. https://www.anthropic.com/news/core-views-on-ai-safety. Accessed 02 Apr 2024
Bazarkina D, Pashentsev E (2019) Artificial Intelligence and New Threats to International Psychological Security. Russia in Global Afairs. N 1. P. 147–170;
Bazarkina D, Pashentsev E (2020) Malicious Use of Artificial Intelligence: New Psychological Security Risks in BRICS Countries. Russia in Global Affairs. N. 4. P. 154- 177.
Bazarkina D, Mikhalevich E, Pashentsev E, Matyashova D (2023) The Threats and Current Practices of Malicious Use of Artificial Intelligence in Psychological Security in China. In: Pashentsev, E. (ed.) (2023) The Palgrave Handbook of Malicious Use of AI and Psychological Security. Palgrave Macmillan, Cham.
Bhoopchand A, Brownfield B, Collister A et al. (2023) Learning few-shot imitation as cultural transmission. Nat Commun 14, 7536. https://doi.org/10.1038/s41467-023-42875-2
Bilderberg Meetings (2024) 70th Bilderberg Meeting. https://bilderbergmeetings.org/press/press-release/press-release. Accessed 06 Jun 2024
Blauth TF, Gstrein OJ, Zwitter A (2022) Artificial Intelligence Crime: An Overview of Malicious Use and Abuse of AI. In: in IEEE Access, vol. 10. P. 77110-77122.
Bove T (2023) CEO of Google’s DeepMind says we could be ‘just a few years’ from A.I. that has human-level intelligence. In: Yahoo Finance. https://finance.yahoo.com/news/ceo-google-deepmind-says-could-213237542.html. Accessed 02 Apr 2024
Brundage M, Avin S, Clark J, Toner H, Eckersley P, Garfinkel B, Dafoe A, Scharre P, Zeitzoff T, Filar B, Anderson H, Roff H, Allen G, Steinhardt J, Flynn C, Ó HÉigeartaigh S, Beard S, Belfield H, Farquhar S, Lyle C, Crootof R, Evans O, Page M, Bryson J, Yampolskiy R, Amodei D (2018) The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation. Future of Humanity Institute, University of Oxford, Oxford.
Cai C, Zhang R (2023) Malicious Use of Artificial Intelligence, Uncertainty, and U.S.–China Strategic Mutual Trust. In: Pashentsev, E. (ed.) The Palgrave Handbook of Malicious Use of AI and Psychological Security. Palgrave Macmillan, Cham.
Caldwell, M., Andrews, J. T. A., Tanay, T. et al. AI-enabled future crime. Crime Sci 9, (2020).
Collard AM (2024) 4 ways to future-proof against deepfakes in 2024 and beyond. In: World Economic Forum. https://www.weforum.org/agenda/2024/02/4-ways-to-future-proof-against-deepfakes-in-2024-and-beyond/. Accessed 02 Apr 2024
Coltin J (2024) How a fake, 10-second recording briefly upended New York politics. In: Politico. https://www.politico.com/news/2024/01/31/artificial-intelligence-new-york-campaigns-00138784. Accessed 02 Apr 2024
CompaniesMarketcap (2024) Market capitalization of NVIDIA (NVDA). https://companiesmarketcap.com/nvidia/marketcap/. Accessed 02 Apr 2024
De La Torre R (2023) How AI Is Shaping the Future of Cybercrime. https://www.darkreading.com/vulnerabilities-threats/how-ai-shaping-future-cybercrime. Accessed 02 Apr 2024
De Luce D, Collier K (2024) Experts war-gamed what might happen if deepfakes disrupt the 2024 election. Things went sideways fast. In: NBC News. https://www.nbcnews.com/politics/2024-election/war-game-deepfakes-disrupt-2024-election-rcna143038. Accessed 02 Apr 2024
Fang R, Bindu R, Gupta A, Zhan Q, Kang D (2024) LLM Agents can Autonomously Hack Websites. In: arXiv. https://arxiv.org/html/2402.06664v1. Accessed 02 Apr 2024
Field H (2024) OpenAI dissolves team focused on long-term AI risks, less than one year after announcing it. In: CNBC. https://www.cnbc.com/2024/05/17/openai-superalignment-sutskever-leike.html. Accessed 21 May 2024
Forbes (2023) Microsoft Confirms Its $10 Billion Investment Into ChatGPT, Changing How Microsoft Competes With Google, Apple And Other Tech Giants. https://www.forbes.com/sites/qai/2023/01/27/microsoft-confirms-its-10-billion-investment-into-chatgpt-changing-how-microsoft-competes-with-google-apple-and-other-tech-giants/?sh=4fd254e53624. Accessed 21 May 2024
Fu Z, Zhao TZ, Finn C (2024) Mobile ALOHA: Learning Bimanual Mobile Manipulation with Low-Cost Whole-Body Teleoperation. https://mobile-aloha.github.io/ Accessed 02 Apr 2024Gilchrist K (2023) A secretive annual meeting attended by the world’s elite has A.I. top of the agenda. In: CNBC. https://www.cnbc.com/2023/05/18/bilderberg-openai-microsoft-google-join-ai-talks-at-secretive-meeting.html. Accessed 06 Jun 2024
Goldman S (2024) In Davos, Sam Altman softens tone on AGI two months after OpenAI drama. In: VentureBeat. https://venturebeat.com/ai/in-davos-sam-altman-softens-tone-on-agi-two-months-after-openai-drama/. Accessed 02 Apr 2024
Grace K, Stewart H, Sandkühler JF, Thomas S, Weinstein-Raun B, Brauner J (2024) Thousands of AI authors on the Future of AI. Preprint. In: arXiv. https://arxiv.org/abs/2401.02843. Accessed 02 Apr 2024
Gupta, A., Guglani, A. (2023). Scenario Analysis of Malicious Use of Artificial Intelligence and Challenges to Psychological Security in India. In: Pashentsev, E. (eds) The Palgrave Handbook of Malicious Use of AI and Psychological Security. Palgrave Macmillan, Cham. https://doi.org/10.1007/978-3-031-22552-9_15
InfoEpi Lab (2023) Inside CounterCloud, The Future of AI-Driven Disinformation. https://infoepi.substack.com/p/brief-inside-countercloud-the-future. Accessed 02 Apr 2024
Jordan FD, Kutter M, Comby JM, Brozzi F, Kurtys E (2024). Open and remotely accessible Neuroplatform for research in wetware computing. In: Frontiers. https://www.frontiersin.org/articles/10.3389/frai.2024.1376042/full. Accessed 06 Jun 2024
Knight W (2023) It Costs Just $400 to Build an AI Disinformation Machine. In: Wired. https://www.wired.com/story/400-dollars-to-build-an-ai-disinformation-machine/. Accessed 02 Apr 2024
Knight W, Levy S (2023) OpenAI Staff Threaten to Quit Unless Board Resigns. In: Wired. https://www.wired.com/story/openai-staff-walk-protest-sam-altman/. Accessed 21 May 2024
Kudalkar D (2024) AGI in 2025? Elon Musk’s Prediction Clashes with Other Experts. In: Favtutor. https://favtutor.com/articles/agi-elon-musk-experts-prediction/. Accessed 02 Apr 2024
Madhok D, Goldman D (2023) Microsoft Confirms Its $10 Billion Investment Into ChatGPT, Changing How Microsoft Competes With Google, Apple And Other Tech Giants. In: CNN. https://edition.cnn.com/2023/11/20/tech/sam-altman-joins-microsoft/index.html. Accessed 21 May 2024
Malicious Uses and Abuses of Artificial Intelligence (2020). Trend Micro Research, United Nations Interregional Crime and Justice Research Institute (UNICRI), Europol’s European Cybercrime Centre (EC3). Trend Micro Research.
McArthur N (2023) Gods in the machine? The rise of artificial intelligence may result in new religions. In: The Conversation. https://theconversation.com/gods-in-the-machine-the-rise-of-artificial-intelligence-may-result-in-new-religions-201068. Accessed 02 Apr 2024
Maslow AH et al (1945) A clinical derived test for measuring psychological security-insecurity. The Journal of General Psychology, 33(1). Pp. 21-41.
Ministry of Industry and Information Technology (2023) 工业和信息化部关于印发《人形机器人创新发展指导意见》的通知 (Notice of the Ministry of Industry and Information Technology on the issuance of the "Guiding Opinions on the Innovation and Development of Humanoid Robots"). In: Ministry of Industry and Information Technology of the People’s Republic of China. https://www.miit.gov.cn/jgsj/kjs/wjfb/art/2023/art_50316f76a9b1454b898c7bb2a5846b79.html. Accessed 02 Apr 2024
Mordor Intelligence (2024) Neuromorphic Chip Market Size & Share Analysis – Growth Trends & Forecasts (2024 - 2029). https://www.mordorintelligence.com/industry-reports/neuromorphic-chip-market. Accessed 02 Apr 2024
Nellis S (2024) Nvidia CEO says AI could pass human tests in five years. In: Reuters. https://www.reuters.com/technology/nvidia-ceo-says-ai-could-pass-human-tests-five-years-2024-03-01/ . Accessed 02 Apr 2024
NVIDIA (2024) NVIDIA Announces Project GR00T Foundation Model for Humanoid Robots and Major Isaac Robotics Platform Update. https://investor.nvidia.com/news/press-release-details/2024/NVIDIA-Announces-Project-GR00T-Foundatio... . Accessed 21 May 2024
Pashentsev E (2020) Global Shifts and Their Impact on Russia-EU Strategic Communication. In: Pashentsev E (eds) Strategic Communication in EU-Russia Relations. Palgrave Macmillan, Cham. https://doi.org/10.1007/978-3-030-27253-1_8
Pashentsev E (2022) Report. Experts on the Malicious Use of Artificial Intelligence and Challenges to International Psychological Security. Publication of the International Center for Social and Political Studies and Consulting. Moscow: LLC «SAM Polygraphist».
Pashentsev, E. (2023). Prospects for a Qualitative Breakthrough in Artificial Intelligence Development and Possible Models for Social Development: Opportunities and Threats. In: Pashentsev, E. (eds) The Palgrave Handbook of Malicious Use of AI and Psychological Security. Palgrave Macmillan, Cham. https://doi.org/10.1007/978-3-031-22552-9_24
Pashentsev E, Bazarkina D (2023) Malicious Use of Artificial Intelligence: Risks to Psychological Security in BRICS Countries. In: Pashentsev, E. (ed.) The Palgrave Handbook of Malicious Use of AI and Psychological Security. Palgrave Macmillan, Cham. 2023. P. 297-334. https://doi.org/10.1007/978-3-031-22552-9_12
Promobot (2024) Service robot for business. . https://promo-bot.ai/. Accessed 02 Apr 2024
Public Citizen (2023) Tracker: State Legislation on Deepfakes in Elections. https://www.citizen.org/article/tracker-legislation-on-deepfakes-in-elections/. Accessed 02 Apr 2024
Roser M (2023) AI timelines: What do experts in artificial intelligence expect for the future? In: Our World in Data. https://ourworldindata.org/ai-timelines. Accessed 02 Apr 2024
Sahota N (2024) The AI Factor In Political Campaigns: Revolutionizing Modern Politics. In: Forbes. https://www.forbes.com/sites/neilsahota/2024/01/12/the-ai-factor-in-political-campaigns-revolutionizing-modern-politics/?sh=63f56cf7c8f6. Accessed 02 Apr 2024
Scharre P (2024) Future-Proofing Frontier AI Regulation. Projecting Future Compute for Frontier AI Models. March. CNAS.
Sifry ML (2024) How AI Is Transforming the Way Political Campaigns Work. In: The Nation. https://www.thenation.com/article/politics/how-ai-is-transforming-the-way-political-campaigns-work/. Accessed 02 Apr 2024
Stepansky J (2023) ‘Wild West’: Republican video shows AI future in US elections. In: Al-Jazeera. https://www.aljazeera.com/news/2023/4/28/wild-west-republican-video-shows-ai-future-in-us-elections. Accessed 02 Apr 2024
Tan K (2024) Google"s DeepMind CEO says the massive funds flowing into AI bring with it loads of hype and a fair share of grifting. In: Yahoo! https://news.yahoo.com/tech/googles-deepmind-ceo-says-massive-075912007.html. Accessed 02 Apr 2024
The Palgrave Handbook of Malicious Use of AI and Psychological Security (ed. Evgeny Pashentsev). Palgrave Macmillan, Cham.
Thompson P (2023) A developer built a "propaganda machine" using OpenAI tech to highlight the dangers of mass-produced AI disinformation. In: Business Insider. https://www.businessinsider.com/developer-creates-ai-disinformation-system-using-openai-2023-9. Accessed 02 Apr 2024
Weller C (2017) Universal basic income has support from some big names. In: World Economic Forum. https://www.weforum.org/agenda/2017/03/these-entrepreneurs-have-endorsed-universal-basic-income/. Accessed 02 Apr 2024
West D (2023) How AI will transform the 2024 elections. In: The Brookings Institution. https://www.brookings.edu/articles/how-ai-will-transform-the-2024-elections/. Accessed 02 Apr 2024
Western Sydney University (2023) World first supercomputer capable of brain-scale simulation being built at Western Sydney University. https://www.westernsydney.edu.au/newscentre/news_centre/more_news_stories/world_first_supercomputer_capable_of_brain-scale_simulation_being_built_at_western_sydney_university. Accessed 02 Apr 2024
White House (2023) Fact Sheet: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence. https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/. Accessed 02 Apr 2024
White House (2024) Fact Sheet: Biden-Harris Administration Announces Key AI Actions Following President Biden’s Landmark Executive Order. https://www.whitehouse.gov/briefing-room/statements-releases/2024/01/29/fact-sheet-biden-harris-administration-announces-key-ai-actions-following-president-bidens-landmark-executive-order/ . Accessed 02 Apr 2024
Zitser J, Mann J (2024) A global scramble to make humanoid robots is gearing up to be the 21st century"s space race. In: Yahoo! https://www.yahoo.com/tech/global-scramble-humanoid-robots-gearing-112301311.html. Accessed 02 Apr 2024