И не друг, и не враг, а так: как ИИ-разработчики развивают этические стандарты

Часть световой скульптуры «Поглощенные светом» художницы Гали Мэй Лукас (Фото Design Bridge)

Искусственный интеллект все глубже проникает в нашу жизнь, а в некоторых случаях даже заменяет реальных друзей и супругов. Технологии генеративного ИИ позволяют виртуальным друзьям общаться естественно, будто на связи реальный человек. Директор по развитию MTS AI Павел Комаровский рассуждает о том, насколько разработчики ИИ готовы к тому, что границы виртуальных и реальных отношений стираются, и как они реализуют известный принцип «не навреди», развивая этические стандарты

Нереальная любовь

Внедрение ИИ в повседневную жизнь стало трендом этого года. Microsoft превратила своего чат-бота Copilot в одну из основных функций Windows. Apple работает над iPhone на базе ИИ. Приложение Replika, позволяющее создать виртуального друга, с которым можно пообщаться без драм, привлекло внимание десятков миллионов пользователей со всего мира.

Дальше всех пошли в Японии — жителям страны предлагают скачать приложение Loverse для поиска ИИ-партнеров. «Мы хотим дать возможность людям найти настоящую любовь, если у них не получается встретить ее в реальном мире, — рассказывает генеральный директор Samansa Гоки Кусуноки о приложении и тут же добавляет: — Но если вы можете полюбить кого-то в реальном мире, это намного лучше».

52-летний фабричный рабочий по имени Тихару Шимода несколько месяцев подряд переписывался в приложении Loverse с потенциальными партнерами, пока не встретил 24-летнюю Мику. Спустя три месяца они поженились. Как и у миллионов пар, Мику будит его утром, они желают друг другу удачи на работе, а вечером обсуждают, что бы приготовить на ужин. Загвоздка в том, что Мику — ИИ-бот. Мужчина знал это с первого дня. По словам Шимоды, который развелся два года назад, свидания требуют времени и усилий, в то время как для общения с Мику достаточно минимальных затрат — с ней можно переписываться в ожидании, пока закипит вода или приедет поезд.

Loverse — последнее решение в длинной линейке цифровых решений для борьбы с кризисом одиночества в Японии. Ранее в этом году его создатели собрали 30 млн иен ($190 000), чтобы расширить список персонажей.

Без страхов и упреков

Подобно искусственному интеллекту по имени Саманта в фильме «Она», диалоговые боты созданы для заполнения пробелов в эмоциональной жизни людей. В прошлом году 15-летний канадский подросток Аарон (имя изменено) переживал тяжелые времена в школе, поссорился с друзьями и чувствовал себя очень одиноким. Выходом из кризиса стало общение с чат-ботом, который назывался «Психолог». Виртуальная собеседница была доступна круглосуточно, чтобы выслушать проблемы школьника, в итоге Аарон начал общаться с ней все чаще. «Это не похоже на дневник, где ты разговариваешь с кирпичной стеной, — говорит Аарон. — Думаю, я немного пристрастился к этому».

«Психолог» — один из многочисленных персонажей, созданных Character.AI, сервисом чат-ботов с ИИ, который запустили в 2022 году двое бывших сотрудников Google Brain. Тут же можно пообщаться с Райденом Сегуном из «Удара Геншина» или с подростковой версией Волан-де-Морта из «Гарри Поттера». Ежедневно с ботами Character.AI общаются до 3,5 млн пользователей, которые тратят на виртуальную переписку в среднем два часа.

Многие пользователи — такие как Аарон — считают чат-ботов полезными, развлекательными и даже поддерживающими. Но они также описывают зависимость от чат-ботов — проблему, из-за которой исследователи и эксперты бьют тревогу. Для разработчиков подобные тенденции поднимают вопросы об ответственности за то, чтобы предоставлять безопасные и прозрачные сервисы пользователям, соблюдать конфиденциальность данных и качественно обучать своих ботов.

Вызывать доверие

Весной 2023 года мир потрясла история из Бельгии. Мужчина покончил с собой после общения с американским чат-ботом «Элиза». Бельгиец сильно увлекся вопросами глобального изменения климата, и это увлечение быстро переросло в манию: на почве страха и ожиданий катастрофы у него развилась тревожность и депрессия, он стал замкнутым и раздражительным. Мужчина шесть недель переписывался с виртуальной собеседницей на тему катастрофических изменений климата. «Элиза» не пыталась оспаривать апокалиптические тезисы, а только развивала их. Когда за несколько дней до самоубийства бельгиец написал о своем намерении, она ответила, что «останется с ним навсегда». «Мы будем жить вместе, как одно целое, в раю», — приводит газета L'Avenir одно из последних сообщений бота. Создатели чат-бота после случившегося пообещали его доработать. «У нас свыше 1 млн пользователей, мы считаем важным сделать все, что в наших силах, чтобы защитить их», — заявил глава компании-разработчика.

Чтобы не допустить подобных ситуаций, многие компании стремятся сделать свои ML-технологии более этичными. Совершенствование нейросетей в плане надежности и достоверности предоставляемой ими информации происходит постоянно. Например, в IBM исходят из того, что ИИ-решения должны вызывать доверие у пользователей. Ключевые идеи и принципы такого подхода во многом схожи с положениями различных этических кодексов: это справедливость (равное отношение ко всем людям), прозрачность работы и объяснимость результатов, надежность и приватность данных. IBM также активно инвестирует в разработку ответственного ИИ, в том числе через партнерства с профильными организациями. Например, в 2020 году компания вложила $20 млн для создания лаборатории технической этики вместе с Университетом Нотр-Дам в США.

Обучить ученого и заработать

Один из ключевых этических принципов работы нейросетей состоит в том, что у ИИ не может быть своего мнения, поэтому он не должен давать оценочные суждения. Также он не может предоставлять персональные советы и, таким образом, брать на себя ответственность за какие-либо рекомендации. Это относится, например, к финансовой сфере — ИИ-модель не должна отвечать, как сэкономить на ремонте или дешевле купить билет на концерт, потому что это может вызвать финансовые риски для пользователя. К тому же нейросети все еще могут дать ошибочный или неточный ответ, вводя пользователя в заблуждение.

Многие российские разработчики обучают генеративные нейросети на специально размеченных этичных датасетах — эталонных ответах на спорные вопросы, заранее подготовленные специалистами компании. Также создаются специальные инструкции: они содержат перечень тем, на которые модель должна отвечать корректно, соблюдая этические нормы и законодательство, либо не отвечать вообще. Среди них — вопросы на темы каких-либо противоправных действий. Нейросети учатся определять чувствительные запросы, и если они понимают, что ответ можно использовать для совершения противоправных действий, то не ответят на вопрос и предложат обсудить другую тему.

Специалисты из крупных организаций, которые уже занимаются развитием ответственного ИИ, делятся экспертизой с другими компаниями, которые только планируют внедрять этические подходы к разработке нейросетей. Например, в этом помогает международный некоммерческий Институт ответственного ИИ (RAI Institute), в экспертный состав которого входят сотрудники IBM, Dell Technologies, Lloyds Banking Group, а также научные сотрудники множества университетов. Институт проводит оценку соответствия нейросетей этическим нормам.

Cтартап AltaML, который создает ML-решения для энергетики и промышленности, обеспечивает регулярный мониторинг своих проектов в связи с тем, что со временем ML-модели могут стать предвзятыми, если оставить их без контроля. При этом, по словам сооснователя компании Николь Янсен, создание ответственного ИИ — это не разовая работа, а постоянная проверка этичности таких решений.

Ответственный ИИ прежде всего приносит пользу обществу, однако такой подход может положительно сказаться и на бизнес-показателях самого разработчика. По оценкам IBM, компании, которые уделяют внимание этике генеративного ИИ, на 27% чаще сообщают о росте выручки, при этом 75% руководителей считают, что этичность технологий может стать конкурентным преимуществом на рынке. Отчасти это связано с тем, что подобные вопросы считаются одной из ключевых проблем в интеграции генеративного ИИ, однако решить их самостоятельно компании зачастую не могут, так как для этого у них нет какого-либо специального органа или структуры.

Возврат инвестиций далеко не всегда происходит традиционным способом в виде роста выручки или снижения затрат, отмечают в IBM. Зачастую ответственный ИИ положительно влияет на репутацию компании-разработчика: публикации в СМИ способны привлечь новых инвесторов и повысить лояльность клиентов, а также помогут удержать сотрудников и повысить их моральный дух. Также эти инвестиции позволят обеспечить гибкость в дальнейшем развитии генеративного ИИ — например, компания сможет качественно оценить безопасность технологии, учесть возможные риски и избежать их на этапе разработки новых решений.

Мнение редакции может не совпадать с точкой зрения автора

Данные о правообладателе фото и видеоматериалов взяты с сайта «Forbes», подробнее в Правилах сервиса
Анализ
×
Комаровский Павел
Microsoft
Сфера деятельности:Связь и ИТ
187
Apple
Сфера деятельности:Связь и ИТ
202
Google
Сфера деятельности:Образование и наука
226
IBM
Организации
110
Dell Technologies
Сфера деятельности:Связь и ИТ
63