Организация искусственного интеллекта: ждет ли ИИ система глобального регулирования

Фото Getty Images

Генеральный секретарь ООН Антониу Гутерриш объявил о создании Консультативного органа высокого уровня по искусственному интеллекту, который будет руководить глобальным управлением ИИ. Фактически генсек ООН поддержал создателя ChatGPT Сэма Альтмана, предложившего приравнять ИИ к атомной энергии, применение которой регулируется на международном уровне. О том, как различные модели регулирования могут способствовать безопасному для общества развитию технологий, рассказывают аналитики Национального центра по развитию искусственного интеллекта НИУ ВШЭ Антон Тамарович и Мария Лесина

В 2017 году генеральный директор Intel Брайан Кржанич заявил, что искусственный интеллект находится «в зачаточном состоянии» и слишком рано говорить о его регулировании. Всего через пять лет участие в разработке национальных и международных стандартов ИИ было объявлено одним из ключевых приоритетов компании. Это яркая иллюстрация того, насколько быстро растет роль ИИ в жизни общества и насколько важными для индустрии становятся вопросы контроля в этой сфере. 

Рост популярности сервисов вроде ChatGPT или Stable Diffusion, способных генерировать все более качественные тексты и изображения, также добавил актуальности дискуссии, одновременно вызвав множество опасений. Риски не ограничиваются появлением нового инструмента для дезинформации, а выходят за рамки сферы ИИ, распространяясь чуть ли не на все области деятельности человека. 

Все это порождает вопросы как среди обычных граждан, так и у самих разработчиков. В 2023 году Илон Маск инициировал петицию за остановку развития ИИ, объясняя это опасностями «непредсказуемых моделей черного ящика». А первопроходец в области искусственного интеллекта Джеффри Хинтон ушел с поста одного из ведущих исследователей по ИИ в компании Google и написал статью, предупреждающую об опасностях технологии, которую он помог создать.

Telegram-канал Forbes.Russia

Канал о бизнесе, финансах, экономике и стиле жизни

Этика ИИ

Одним из способов нивелирования подобных опасений является разработка этики искусственного интеллекта — совокупности принципов ответственного ИИ, обозначающих подходы к разработке новых моделей и правила их функционирования. Эти принципы часто основаны на доктринах безопасности, прозрачности и управляемости. Сюда входит целый комплекс вопросов, к примеру: может ли ИИ иметь авторские права, как ограничить появление дипфейков и не остановить при этом развитие технологии, как обеспечить прозрачность разработки и использования ИИ-инструментов и, в глобальном масштабе, как укрепить доверие общества к ИИ-технологиям?

Многие компании уже разрабатывают свои собственные стандарты создания и использования ИИ-инструментов, давая обязательства по защите данных, соблюдению конфиденциальности и предотвращению дискриминации. Такие правила в виде семи принципов введены в Google, c 2019 года заявляющей о своей приверженности к разработке этичного ИИ. Подобный документ принят и в Microsoft, которая имеет четкие этические стандарты для внутренних разработчиков ИИ-моделей. 

Участие бизнеса в формировании правил игры на ИИ-поле позволяет сформировать сбалансированные правовые рамки, учитывающие как взгляды и подходы государства, так и коммерческие интересы. Опыт саморегулирования бизнеса позволяет развивать ИИ, несмотря на то, что правовые системы отдельных стран медленно реагируют на расширение возможностей и сценарий применения ИИ. Участие в этом процессе дает компаниям конкурентное преимущество, позволяя позиционировать себя как этичный и социально ответственный бизнес. В итоге они могут продвигать как собственные интересы, так и интересы своих стран на международном рынке.

Российские компании также не остаются в стороне. Ежегодно проводится специализированный форум по вопросам этического развития ИИ, на котором в 2021 году был представлен Кодекс этики в сфере ИИ. Он является единой системой рекомендательных принципов и правил, предназначенных для создания среды развития доверенных технологий искусственного интеллекта в России, ставя в основу контролируемость, прозрачность, стабильность, ответственность и непредвзятость этой технологии. Подписание кодекса является исключительно добровольным. У кодекса уже 226 подписантов, включая «Яндекс», VK, «Сбер», МТС

Судья на поле

Дискуссия о рисках распространения ИИ неизбежно должна была затронуть вопрос о роли государства. Крупные американские технологические игроки инициировали создание правовых норм для всей индустрии. Еще в 2020 году руководители Apple и Facebook (принадлежит компании Meta, которая признана в России экстремистской и запрещена) призвали к принятию в США закона, обеспечивающего конфиденциальность и защиту данных при обучении ИИ. Однако только в 2023 году президент Джо Байден впервые встретился с главами Google, Microsoft, Antrophic и OpenAI для обсуждения рисков стремительного развития ИИ. По итогам встречи правительство США организовало AI Insight Forum, в ходе которого обсуждалась роль государства в регулировании ИИ. По итогам мероприятия Илон Маск предложил государству действовать как судья в спортивной игре. «Важно иметь арбитра, гарантирующего, что компании принимают меры, которые являются безопасными и отвечают интересам широкой общественности», — заявил он.

Стоит отметить, что не только в США идет процесс формирования правового поля для ИИ. ЕС в 2021 году опубликовал проект Акта об ИИ (Artificial Intelligence Act), который должен ввести единый регуляторный режим в области ИИ для стран ЕС. В Великобритании обсуждается другая модель, которая будет строиться вокруг самой технологии, создавая правила безопасности как для лицензирования и проверки отдельных разработок, так и для ИИ-инфраструктуры. Китай продвинулся в деле регулирования дальше всех: никто не сможет внедрить новую услугу или ИИ-алгоритм без государственного разрешения. 

Агентство по делам ИИ

Важной особенностью является наличие кардинально разных подходов стран к ИИ. Если США, применяя принцип невмешательства в бизнес, дали гигантам Кремниевой долины возможность стать глобальными лидерами ИИ-отрасли, то ЕС озабочен возникающими из-за развития ИИ рисками для прав человека и готов к жесткому регулированию этой сферы. Вашингтон уже высказал озабоченность, что столь разное отношение к развитию технологий может навредить торговле между ЕС и США и попросил изменить ряд положений Акта об ИИ.

Неудивительно, что стали появляться различные инициативы, выводящие проблему на международный уровень. В мае 2023 года, выступая на слушаниях в Конгрессе, глава разработавшей ChatGPT компании OpenAI Сэм Альтман предложил создать глобальную систему контроля за искусственным интеллектом по образцу МАГАТЭ. Специальное международное агентство могло бы выдавать лицензии на ИИ-системы и иметь полномочия «отбирать эту лицензию и обеспечивать соблюдение стандартов безопасности».

Одним из результатов этой инициативы и стало формирование Консультативного органа высокого уровня по искусственному интеллекту ООН. Его ключевой задачей станет разработка принципов, способствующих безопасному развитию и использованию ИИ. Однако исключительно рекомендательный характер полномочий нового органа не позволяет рассчитывать на появление глобального арбитра. Возможно, его контуры появятся в рекомендациях, которые представят эксперты ООН

Однако главным условием для успешного развития ИИ станет готовность ключевых игроков (США, ЕС, Китай, Россия, Индия) договориться о правилах игры на ИИ-поле. В ином случае, продолжая игровую аналогию, мир придет к созданию отдельных «лиг» из стран со схожими подходами, которые непременно вступят в глобальную конкуренцию за установление своих принципов как единственно верных. США уже идут по этому пути с 2021 года, когда инициировали создание Атлантико-Тихоокеанского партнерства в области технологий, объединив таким образом своих союзников вокруг общего набора стандартов ИИ.

Мнение редакции может не совпадать с точкой зрения авторов

Данные о правообладателе фото и видеоматериалов взяты с сайта «Forbes», подробнее в Правилах сервиса
Анализ
×
Антониу Мануэл де Оливейра Гутерриш
Последняя должность: Генеральный секретарь (ООН)
116
Джозеф Робинетт Байден-младший (Джо Байден)
Последняя должность: Президент (Президент США)
518
Сэмюэл Х. Альтман (Сэм Альтман)
Последняя должность: Генеральный директор (OpenAI)
4
Илон Рив Маск
Последняя должность: Генеральный директор, главный инженер (SpaceX)
388
Брайан Кржанич
Последняя должность: Генеральный директор (ADP)
ВЫСШАЯ ШКОЛА ЭКОНОМИКИ
Сфера деятельности:Образование и наука
374
Google
Сфера деятельности:Образование и наука
213
Microsoft
Сфера деятельности:Связь и ИТ
163
ООО "ЯНДЕКС"
Сфера деятельности:Связь и ИТ
325
ПАО СБЕРБАНК
Сфера деятельности:Финансы
768