Генеральный секретарь ООН Антониу Гутерриш объявил о создании Консультативного органа высокого уровня по искусственному интеллекту, который будет руководить глобальным управлением ИИ. Фактически генсек ООН поддержал создателя ChatGPT Сэма Альтмана, предложившего приравнять ИИ к атомной энергии, применение которой регулируется на международном уровне. О том, как различные модели регулирования могут способствовать безопасному для общества развитию технологий, рассказывают аналитики Национального центра по развитию искусственного интеллекта НИУ ВШЭ Антон Тамарович и Мария Лесина
В 2017 году генеральный директор Intel Брайан Кржанич заявил, что искусственный интеллект находится «в зачаточном состоянии» и слишком рано говорить о его регулировании. Всего через пять лет участие в разработке национальных и международных стандартов ИИ было объявлено одним из ключевых приоритетов компании. Это яркая иллюстрация того, насколько быстро растет роль ИИ в жизни общества и насколько важными для индустрии становятся вопросы контроля в этой сфере.
Рост популярности сервисов вроде ChatGPT или Stable Diffusion, способных генерировать все более качественные тексты и изображения, также добавил актуальности дискуссии, одновременно вызвав множество опасений. Риски не ограничиваются появлением нового инструмента для дезинформации, а выходят за рамки сферы ИИ, распространяясь чуть ли не на все области деятельности человека.
Все это порождает вопросы как среди обычных граждан, так и у самих разработчиков. В 2023 году Илон Маск инициировал петицию за остановку развития ИИ, объясняя это опасностями «непредсказуемых моделей черного ящика». А первопроходец в области искусственного интеллекта Джеффри Хинтон ушел с поста одного из ведущих исследователей по ИИ в компании Google и написал статью, предупреждающую об опасностях технологии, которую он помог создать.
Telegram-канал Forbes.Russia
Канал о бизнесе, финансах, экономике и стиле жизни
Этика ИИ
Одним из способов нивелирования подобных опасений является разработка этики искусственного интеллекта — совокупности принципов ответственного ИИ, обозначающих подходы к разработке новых моделей и правила их функционирования. Эти принципы часто основаны на доктринах безопасности, прозрачности и управляемости. Сюда входит целый комплекс вопросов, к примеру: может ли ИИ иметь авторские права, как ограничить появление дипфейков и не остановить при этом развитие технологии, как обеспечить прозрачность разработки и использования ИИ-инструментов и, в глобальном масштабе, как укрепить доверие общества к ИИ-технологиям?
Многие компании уже разрабатывают свои собственные стандарты создания и использования ИИ-инструментов, давая обязательства по защите данных, соблюдению конфиденциальности и предотвращению дискриминации. Такие правила в виде семи принципов введены в Google, c 2019 года заявляющей о своей приверженности к разработке этичного ИИ. Подобный документ принят и в Microsoft, которая имеет четкие этические стандарты для внутренних разработчиков ИИ-моделей.
Участие бизнеса в формировании правил игры на ИИ-поле позволяет сформировать сбалансированные правовые рамки, учитывающие как взгляды и подходы государства, так и коммерческие интересы. Опыт саморегулирования бизнеса позволяет развивать ИИ, несмотря на то, что правовые системы отдельных стран медленно реагируют на расширение возможностей и сценарий применения ИИ. Участие в этом процессе дает компаниям конкурентное преимущество, позволяя позиционировать себя как этичный и социально ответственный бизнес. В итоге они могут продвигать как собственные интересы, так и интересы своих стран на международном рынке.
Российские компании также не остаются в стороне. Ежегодно проводится специализированный форум по вопросам этического развития ИИ, на котором в 2021 году был представлен Кодекс этики в сфере ИИ. Он является единой системой рекомендательных принципов и правил, предназначенных для создания среды развития доверенных технологий искусственного интеллекта в России, ставя в основу контролируемость, прозрачность, стабильность, ответственность и непредвзятость этой технологии. Подписание кодекса является исключительно добровольным. У кодекса уже 226 подписантов, включая «Яндекс», VK, «Сбер», МТС.
Судья на поле
Дискуссия о рисках распространения ИИ неизбежно должна была затронуть вопрос о роли государства. Крупные американские технологические игроки инициировали создание правовых норм для всей индустрии. Еще в 2020 году руководители Apple и Facebook (принадлежит компании Meta, которая признана в России экстремистской и запрещена) призвали к принятию в США закона, обеспечивающего конфиденциальность и защиту данных при обучении ИИ. Однако только в 2023 году президент Джо Байден впервые встретился с главами Google, Microsoft, Antrophic и OpenAI для обсуждения рисков стремительного развития ИИ. По итогам встречи правительство США организовало AI Insight Forum, в ходе которого обсуждалась роль государства в регулировании ИИ. По итогам мероприятия Илон Маск предложил государству действовать как судья в спортивной игре. «Важно иметь арбитра, гарантирующего, что компании принимают меры, которые являются безопасными и отвечают интересам широкой общественности», — заявил он.
Стоит отметить, что не только в США идет процесс формирования правового поля для ИИ. ЕС в 2021 году опубликовал проект Акта об ИИ (Artificial Intelligence Act), который должен ввести единый регуляторный режим в области ИИ для стран ЕС. В Великобритании обсуждается другая модель, которая будет строиться вокруг самой технологии, создавая правила безопасности как для лицензирования и проверки отдельных разработок, так и для ИИ-инфраструктуры. Китай продвинулся в деле регулирования дальше всех: никто не сможет внедрить новую услугу или ИИ-алгоритм без государственного разрешения.
Агентство по делам ИИ
Важной особенностью является наличие кардинально разных подходов стран к ИИ. Если США, применяя принцип невмешательства в бизнес, дали гигантам Кремниевой долины возможность стать глобальными лидерами ИИ-отрасли, то ЕС озабочен возникающими из-за развития ИИ рисками для прав человека и готов к жесткому регулированию этой сферы. Вашингтон уже высказал озабоченность, что столь разное отношение к развитию технологий может навредить торговле между ЕС и США и попросил изменить ряд положений Акта об ИИ.
Неудивительно, что стали появляться различные инициативы, выводящие проблему на международный уровень. В мае 2023 года, выступая на слушаниях в Конгрессе, глава разработавшей ChatGPT компании OpenAI Сэм Альтман предложил создать глобальную систему контроля за искусственным интеллектом по образцу МАГАТЭ. Специальное международное агентство могло бы выдавать лицензии на ИИ-системы и иметь полномочия «отбирать эту лицензию и обеспечивать соблюдение стандартов безопасности».
Одним из результатов этой инициативы и стало формирование Консультативного органа высокого уровня по искусственному интеллекту ООН. Его ключевой задачей станет разработка принципов, способствующих безопасному развитию и использованию ИИ. Однако исключительно рекомендательный характер полномочий нового органа не позволяет рассчитывать на появление глобального арбитра. Возможно, его контуры появятся в рекомендациях, которые представят эксперты ООН.
Однако главным условием для успешного развития ИИ станет готовность ключевых игроков (США, ЕС, Китай, Россия, Индия) договориться о правилах игры на ИИ-поле. В ином случае, продолжая игровую аналогию, мир придет к созданию отдельных «лиг» из стран со схожими подходами, которые непременно вступят в глобальную конкуренцию за установление своих принципов как единственно верных. США уже идут по этому пути с 2021 года, когда инициировали создание Атлантико-Тихоокеанского партнерства в области технологий, объединив таким образом своих союзников вокруг общего набора стандартов ИИ.
Мнение редакции может не совпадать с точкой зрения авторов