Если машины продолжат развивать сознание, совесть, восприятие, способность действовать самостоятельно и принимать этические решения, чувства и другие человеческие характеристики, как будут относиться к ним общество и государство? Получат ли машины какой-то правовой статус? Об этом размышляет Миша Джуркович, главный научный сотрудник Института европейских исследований в Сербии.
В ходе XXI Ежегодного заседания Валдайского клуба много внимания уделялось проблеме искусственного интеллекта. Помимо специальной экспертной сессии, вопросы из этой области также обсуждались в ходе диалога между президентом России Владимиром Путиным и экспертами клуба. Особо было отмечено, что западные системы ИИ встраивают в свои алгоритмы идеологические, политические и геополитические позиции и что каждое крупное государство, которое имеет для этого силы и возможности, создаёт свою собственную систему ИИ и стремится суверенно её контролировать, побуждая своих граждан использовать именно её.
Поэтому очевидно, что особо актуальным является вопрос регулирования ИИ. Он широко обсуждается, и уже сделаны первые важные шаги, такие как Регламент ЕС 2024/1689 от 13 июня 2024 года, который гармонизирует правила в отношении искусственного интеллекта. Этот Закон ЕС об искусственном интеллекте (EUVIA) – первый наднациональный юридически обязывающий документ такого рода.
Он создан в качестве реакции на этические и правовые проблемы, которые были предметом дискуссий в течение почти десяти лет. Мы попытаемся представить некоторые вопросы, которые должны регулироваться. Уже год я участвую в проекте по изучению этических и правовых аспектов ИИ и считаю, что рождённые в его рамках идеи могут быть полезны коллегам.
Начать следует с анализа ЮНЕСКО, которая выделила четыре основных области.
1.Предвзятость ИИ. ИИ воспроизводит предвзятость и стереотипы мира, из которого он черпает данные. Поэтому задача заключается не только в том, чтобы обеспечить боту возможность максимально точно давать людям запрашиваемые ответы, но и в том, чтобы научить его этически стандартизировать мир, который он строит, и избегать дискриминации тех или иных групп – этнических, расовых и других. Общеизвестный пример: как правило, в выдаче по таким поисковым запросам, как «беспорядки в пригородах» или «преступность», чаще всего фигурируют чернокожие и темнокожие люди, мусульмане и так далее.
2. Следующее важное и потенциально спорное направление – использование ИИ в судах. Существует идея, что ИИ мог бы вершить правосудие быстрее, лучше и эффективнее, чем живые судьи с их предрассудками и предубеждениями. Также есть идея, что ИИ может помогать прокурорам в подготовке дела, а также законодателям в парламенте. Во всех этих случаях речь идёт о так называемой автоматизации правосудия: создании специального программного обеспечения для этого вида деятельности. Здесь возникают следующие проблемы: а) отсутствие прозрачности, поскольку система не видна людям; б) ИИ не нейтрален, а подвержен неточностям, дискриминационным влияниям, встроенной предвзятости; в) нарушение конфиденциальности и сбор данных о людях, которые предстают перед судом; г) вопрос справедливости и прав человека, соразмерности наказания совершенному преступлению, непонимание контекста, смягчающих обстоятельств. Некоторые полагают, что с помощью ИИ можно было бы рассчитывать, какое наказание назначить преступнику и следует ли его досрочно освободить от наказания, исходя из категории, к которой он принадлежит, вероятности повторного правонарушения и тому подобного.
3. Огромные проблемы возникают в сфере творчества и креативных индустрий. Например, когда речь идёт о роли ИИ в создании произведений искусства. Есть уже известный пример с Рембрандтом. ИИ создал совершенно новый образ на основе глубокого изучения работ Рембрандта. Основной вопрос – кто является автором этого нового произведения: компания, инженеры или сам Рембрандт? Согласился бы сам Рембрандт и согласятся ли его преемники с тем, что ИИ творит в его духе, тем самым пренебрегая неповторимостью как основой художественного творения гения? Другой пример – работа ботов Huawei по завершению «Неоконченной симфонии» Шуберта.
Всё это поднимает серьёзные вопросы о будущем искусства и творчества, касающиеся защиты прав, недопущения использования работы другими и получения за неё денег. Но важнее всего проблемы целостности творчества и того, как защитить и сохранить творчество, оригинальность и гениальность от промышленного обучения и машинных игр и как отличить пиратство и плагиат. Даже в мире до ИИ определить границы плагиата было очень сложно, а в дальнейшем проблем будет ещё больше, серая зона продолжит расширяться.
4.Автономные транспортные средства. Использование и разработка автономных беспилотных машин влечёт за собой сложные дилеммы как в гражданской, так и в военной области, где они уже широко развиты и используются независимо от нашего неудовольствия и страхов. Несмотря на то, что такие транспортные средства будут способствовать мобильности пожилых, больных или слепых людей, неизбежно возникают вопросы. Например, для разработки автономного автомобиля или автобуса, которые будут использоваться в сфере городского транспорта, необходимо собрать и обработать немало данных. При этом методы сбора весьма спорны, и всегда существует вероятность ошибок и просчётов, которые могут иметь фатальные последствия для многих участников дорожного движения – не только для тех, кто будет находиться в транспортном средстве. ИИ также должен будет, например, решать, кого сбить, если сломаются тормоза. Это похоже на «проблему вагонетки» – автобус со сломанными тормозами, на пути у которого пешеходный переход и который должен будет принять решение, продолжать ли движение и принести смерть пяти людям или повернуть к скамейке на другой стороне, где сидит один человек.
Всё ещё больше усложняется, когда мы рассматриваем использование ИИ в машинах военного назначения. Военные круги уже давно работают над механизмами так называемого улучшения солдат, чтобы подавить стресс и сделать невозможным совершение массовых преступлений под его влиянием, а также повысить выносливость и эффективность. Использование машин, которые не страдают от стресса и трудных условий, кажется идеальным выходом. Поэтому широко разрабатываются автономные беспилотные летательные аппараты, транспортные средства и роботы, которые способны самостоятельно принимать решения о выборе целей и их устранении.
Что касается данных, то это, конечно, главный источник для развития ИИ, что влечёт за собой проблемы с конфиденциальностью, неправомерным использованием данных, незаконными и неправомерными способами сбора и обработки, спорной торговлей данными и так далее. Уже есть пример компании GlaxoSmithKline, которая купила эксклюзивные права на исследование генетических данных клиентов у компании по тестированию ДНК 23andMe в целях разработки лекарств. Крупнейшие технологические корпорации находятся в выгодном положении для сбора данных, которые, по словам Арвинда Гупты, являются новой нефтью, и налицо обоснованные опасения относительно их олигополии в области ИИ. Поэтому странам придётся регулировать сбор данных на своей территории, а также помогать собственным компаниям использовать данные для разработки внутренней системы ИИ.
В число наиболее важных также входит вопрос контроля над общим развитием машин, то есть вопрос о том, достигнут ли они точки сингулярности, когда люди больше не смогут их нагнать. Вдобавок они отнимают у людей работу, что уже угрожает многочисленным профессиям в индустрии дизайна, издательском деле и так далее. Вопросы использования ИИ для создания программного обеспечения для распознавания лиц или его развития на рынке секс-кукол также чрезвычайно интересны, поскольку первые публичные дома такого типа были открыты шесть лет назад. При этом если машины продолжат развивать сознание, совесть, восприятие, способность действовать самостоятельно и принимать этические решения, чувства и другие человеческие характеристики, как будут относиться к ним общество и государство? Получат ли машины какой-то правовой статус? Обеспечат ли им права, начнём ли мы относиться к ним как к животным, имеющим такой же уровень интеллекта? Будут ли машины страдать и должны ли мы тогда гарантировать им право на защиту от страданий, травм и жестокого обращения. Наконец, как мы определим срок существования ботов и машин ИИ и решим, когда пора их устранять. Будут ли у нас браки человека и машины с ИИ?
Из-за всего этого, после ряда попыток саморегулирования отрасли, за дело взялись государства и международные организации. В США были приняты судебные решения, запрещающие использование ИИ в определённых областях (в частности, в социальной политике), поскольку оно нарушает права граждан. В ряде стран, включая Сербию, судебные решения запрещают показ и распространение некоторых материалов, созданных с помощью методики deepfake, фальсифицирующей речь, видео и изображения (например, deepfake с певицей Тейлор Свифт). Наконец, ЕС принял первый всеобъемлющий акт, который мы рассмотрим в дальнейших статьях.
Данный текст отражает личное мнение автора, которое может не совпадать с позицией Клуба, если явно не указано иное.