Грегор Строин: "Регулирование должно не препятствовать технологическому развитию, но реагировать на его последствия"

@RAPSI

Комитет министров Совета Европы (СЕ) в сентябре этого года учредил Специальный комитет по искусственному интеллекту (CAHAI). Основная задача группы экспертов, первая встреча которых прошла в ноябре, — разработка правовой базы для проектирования и применения искусственного интеллекта на основе стандартов организации в области прав человека, демократии и верховенства права. Президент CAHAI Грегор Строин в интервью РАПСИ рассказал о подходе СЕ к регулированию сферы искусственного интеллекта и существующих сложностях.

— Чем вызвано решение Совета Европы обратить свой взор на проблему искусственного интеллекта (ИИ) и учредить Спецкомитет по искусственному интеллекту именно сегодня? Почему этого не произошло, скажем, 5 лет назад, когда взаимодействие человека с технологиями на базе искусственного интеллекта начали воспринимать как «новую норму» жизни?

— Решение Комитета министров учредить CAHAI — это лишь одна из многих мер, которые Совет Европы как международная организация, объединяющая 47 государств-членов, предпринял за последнее время в сфере инновационных технологий.

То, что сейчас для удобства называется искусственным интеллектом, не является по своей сути принципиально новой технологией. Несмотря на очередной всплеск интереса к этому термину и некоторую моду на его использование, существуют общеизвестные вопросы, имеющие отношение к использованию компьютеров, информатике и данным за ними. И Совет Европы не просто проявлял активность, имея дело с основополагающими и взаимосвязанными проблемами в этой сфере, но во многом их предвосхищал.

Конвенция Совета Европы о защите физических лиц при автоматизированной обработке персональных данных (Конвенция 108) была представлена для подписания еще в 1981 году, она стала первым международным документом по этому вопросу и по-прежнему не теряет актуальности. К настоящему времени Конвенцию ратифицировали 55 государств, при этом некоторые из них располагаются за пределами европейских границ. Российская Федерация подписала документ 7 ноября 2001 года.

Консультативный комитет Конвенции, к примеру, 28 января 2019 года обнародовал Руководство по искусственному интеллекту и защите данных.

В таком же ключе идет работа и в борьбе с киберприступностью, где автоматизация определенных преступных действий уже оказывает значительный ущерб. Конвенция Совета Европы о киберпреступности, также известная как Будапештская конвенция, с 2001 года обеспечивает уникальную основу для сотрудничества судебных органов. Эту Конвенцию уже ратифицировали более 60 стран.

Уместно вспомнить и другие правовые инструменты обязательного характера, среди которых Европейская конвенция о правах человека, а также некоторые механизмы и инициативы, не имеющие обязательной силы, скажем, в сфере образования (руководящий комитет Совета Европы по образовательной политике и практике (CDPPE) и проект «Цифровое гражданское образование»), в области правосудия (Европейская хартия об использовании искусственного интеллекта в судебных системах — совершенно уникальный инструмент, принятый Европейской комиссией по эффективности правосудия CEPEJ в 2018 году), а также в сфере борьбы с нарушениями в потоках информации.

В целом, в ходе первого пленарного заседания Комитета экспертов по искусственному интеллекту было выявлено не менее 42 документов Совета Европы, уже разработанных или находящихся в процессе разработки, которые прямо или косвенно имеют отношение к искусственному интеллекту.

Теперь Совет Европы должен провести обобщающую работу на горизонтальном уровне с тем, чтобы извлечь выгоду из этой интенсивной деятельности для формирования общих принципов, простых и понятных для всех. Именно в этом заключается основная задача, стоящая перед Комитетом.

— Как вы планируете улучшать подходы к правовому регулированию искусственного интеллекта, принимая во внимание необходимость поддержания баланса между стремительным развитием технологий, за темпом которого нормативные стандарты просто не успевают, и принципами защиты прав человека?

— Приоритеты Комитета обозначены в его мандате: это изучение возможности создания потенциальных правовых рамок для разработки, проектирования и применения искусственного интеллекта на основании стандартов Совета Европы в сферах прав человека, демократии и верховенства права.

Мне представляется важным, чтобы новый правовой инструмент учитывал воздействие новых технологических достижений на права личности, закрепленные в Европейской конвенции о правах человека (например, право на неприкосновенность частной жизни, личную тайну, справедливое судебное разбирательство, свободу выражения мнения, свободу собраний, право не подвергаться дискриминации и т.д.), а также их потенциально подрывное влияние на демократические процессы.

Проблема стремительного развития технологий частично охвачена существующими правовыми документами в области цифровых технологий. Например, Конвенция 108, 108+ (модернизированная Конвенция Совета Европы о защите персональных данных — прим. ред.) и Конвенция о киберпреступности являются «нейтральными» по отношению к технологиям. Эти документы направлены не на ограничение конкретных технологий, но, скорее, на улучшение защиты прав человека в цифровой среде. Регулирование не должно препятствовать технологическому развитию, оно должно быть ориентировано на предполагаемые последствия такого развития.

Деятельность CAHAI в вопросе разработки правовой базы и принципов не обязательно будет заключаться в регулировании конкретных технологических наработок или методов (например, в области отдельных приложений, глубоких нейронных сетей или других форм машинного обучения). Эта работа будет, скорее, направлена на предотвращение и устранение каких бы то ни было вредоносных последствий от использования определенных нововведений и в то же время поддержку достижений, которые могут оказать положительное и синергетическое воздействие на права человека, верховенство закона и демократию.

— Ситуация с регулированием области ИИ осложняется отсутствием подробной информации о том, как проектируются системы на его основе, как они функционируют, как они могут измениться в ближайшем будущем и как мы можем оспаривать результаты их решений эффективным способом. Стивен Хокинг предупреждал, что по мере того, как сфера искусственного интеллекта будет развиваться, ее будет сложнее контролировать. Как вы собираетесь регулировать эту сферу в ситуации, когда даже разработчики не знают, что произойдет завтра?

— Это не вопрос регулирования будущего. Тот факт, что мы не можем предсказать будущее, не должен отменять наши размышления о происходящем или отвлекать нас от объективного анализа благоприятных факторов и рисков. Это также не вопрос регулирования технологии как таковой. Но это вопрос регулирования последствий ее использования и обеспечения адекватного контроля над методами ее проектирования, разработки и применения. Мы должны делать различие между восприятием искусственного интеллекта, возникшим благодаря научной фантастике, и реальностью. Технология еще не «доросла» до уровня «общего искусственного интеллекта», и, несмотря на то, что новые, расширенные возможности нарушают традиционную структуру и связи, большая часть решений о способе ее разработки и использования в конечном итоге всё ещё зависит от людей.

И действительно, транспарентность (архитектуры системы на базе ИИприм. ред.) или ее дефицит является в этом контексте весьма актуальным вопросом. Многие стандарты и рекомендации широко известны, но они не имеют обязательной юридической силы. Их претворение в жизнь на этапах проектирования и разработки в основном зиждется на принципе саморегулирования, что, в свою очередь, зависит от ответственности разработчика и доверия (по умолчанию) со стороны пользователей к нему.

Недавние всплески обсуждения проблематики искусственного интеллекта как в академических кругах, так и в общественных институтах стало реакцией на случаи злоупотребления этим самым доверием, некоторые из которых имели катастрофические последствия.

Уже есть свидетельство весьма конкретных последствий использования определенных алгоритмов принятия решений, а также расчета вероятностей и создания шаблонов. Дискриминация при приеме на работу, предвзятость в ходе оценки рисков повторного совершения преступлений, вмешательство в избирательные процессы, смерти людей из-за использования беспилотных транспортных средств — всё это уже сегодняшняя реальность.

Упомянутый Вами Стивен Хокинг призывал также «использовать передовой опыт и эффективное управление», а подписанное им открытое письмо о приоритетах в исследовательской деятельности для создания надежного и эффективного искусственного интеллекта призывает обратить внимание на решение вопросов правовой политики. Среди них — «возможность осуществления контроля соответствия требованиям, возможность приведения в исполнение, способность снизить риск и предотвратить подавление нужного и желательного развития технологий, вероятность принятия и способность адаптироваться со временем к изменяющимся обстоятельствам».

Некоторые возможные подходы, которые предстоит рассмотреть нашему Комитету, предусматривают механизмы проверки нововведений [технологий на базе AI — прим.ред.], схожие с теми, что применяются в фармацевтической отрасли, а также способы предварительной оценки их воздействия на права человека.

Подобные меры укрепляют доверие пользователей, гарантируя, что инновации могут быть проверены на предмет их соответствия нормам, даже если они не были специально рассмотрены регулирующим органом. Такие меры могут обеспечить реальную добавленную стоимость для бизнеса. Фактически они могут обеспечить предсказуемую, унифицированную основу для ведения бизнеса (вместо небольших решений в технике «латания дыр»), а также помогут развитию надежной, этичной и заслуживающей доверия отрасли в Европе, что, в свою очередь, обеспечит конкурентное преимущество перед другими международными игроками.

— Для регулирования высокотехнологичных областей, особенно в том, что касается искусственного интеллекта, требуются узкоспециализированные знания. Планирует ли Комитет привлекать специалистов частного сектора и гражданского общества в качестве консультантов и взаимодействовать с такими гигантами, как, например, Google, для поиска решений? И если да, как вы сможете гарантировать, что в нормативной базе не будет перекосов и что она не будет тормозить развитие технологий? Ведь у технологических гигантов может быть свой взгляд на особенности регулирования.

— Наш Комитет действительно намерен провести многосторонние консультации с максимально широким количеством заинтересованных сторон, которые так или иначе вовлечены в работу по интеграции искусственного интеллекта или имеют к этому отношение. Помимо государств-членов Совета Европы и различных международных организаций речь идет о гражданском обществе, научных кругах, а также некоторых крупных технологических компаниях из частного сектора и ассоциациях, с которыми Совет Европы состоит в партнерских отношениях с ноября 2017 года.

Такие консультации предполагают прямой и конкретный диалог, обмен мнениями для лучшего понимания позиций друг друга и ограничений. Но они не дают каких-либо привилегий компаниям: у них статус наблюдателя, что не дает им права голоса. Межправительственная работа, таким образом,остается под полным контролем 47 государств-членов СЕ, которые делегировали экспертов высокого профессионального уровня, способных принимать обоснованные решения о том, в каком направлении необходимо двигаться дальше.

— Интеграция технологий на базе искусственного интеллекта может оказать серьезное влияние на общество, на концепцию верховенства закона, защиты прав и демократии. С этой точки зрения, на ваш взгляд, каким должен быть подход к разработке нормативно-правовой базы — осторожным или, напротив, проактивным?

— Полагаю, Комитет министров Совета Европы разделяет это наблюдение, поскольку основой мандата CAHAI как раз является предварительное изучение возможности подведения правовой основы под проектирование, разработку и применение искусственного интеллекта. Впрочем, осторожность и проактивный подход не кажутся мне столь уж несовместимыми; они необходимы для предотвращения и предупреждения нарушений прав человека.

Предварительная работа по сбору информации об уже существующих правовых инструментах отвечает необходимости не торопиться и избегать дублирования правовых норм там, где они уже существуют, и, таким образом, избегать возникновения противоречий. С другой стороны, созданная правовая база может мотивировать государства-члены СЕ проявлять большую активность, поскольку именно они главным образом несут ответственность за создание условий для существования прав человека и их защиты, предотвращения их нарушений. Соблазн полезности и эффективности, которые новые технологии привносят во многие области, не должен отвлекать государства от тщательной оценки пропорциональности их воздействия на весь спектр прав человека.

— Планирует ли Спецкомитет по искусственному интеллекту каким-либо образом мотивировать государства-члены СЕ развивать компетенции своих граждан, чтобы они лучше понимали значение технологий в жизни человека и их опыт взаимодействия с технологиями на базе искусственного интеллекта был как можно более положительным?

— Направление работы Комитета экспертов будет зависеть от решений государств-членов Совета Европы, поэтому пока преждевременно о чем-то говорить конкретно. Вместе с тем следует понимать, что работа Комитета вписывается в более широкий контекст деятельности Совета Европы, учитывая, что образование, цифровая грамотность и демократическое участие являются важной ее частью.

Помощь детям и молодым людям с тем, чтобы они могли безопасно, эффективно, критически осмысленно и ответственно существовать в мире, наполненном социальными сетями и цифровыми технологиями, стала приоритетом для политиков и преподавателей. Обнародованные в 2018 году рекомендации Совета Европы «Об основных принципах обеспечения уважения, защиты и осуществления прав ребенка в цифровой среде» являются конкретным примером, и данные рекомендации напоминают об обязанности государств привлекать все заинтересованные стороны в этом контексте.

Кроме того, понимание гражданственности в цифровой среде трансформировалось с расширением охвата диапазона компетенций, атрибутов и моделей поведения для использования преимуществ и возможностей онлайн-среды, в то же время с повышением устойчивости к потенциальному вреду. Для ответа на эти вызовы руководящим комитетом Совета Европы по образовательной политике и практике (CDPPE) в 2016 году был запущен новый межправительственный проект под названием «Цифровое гражданское образование». Цель проекта — внести вклад в изменение роли, которую играет образование, и за счет чего у детей есть возможность приобретать навыки, необходимые им как цифровым гражданам для активного и ответственного участия в демократическом обществе, как офлайн, так и онлайн.

Мы верим, что работа Совета Европы по данным направлениям будет дополнять результаты CAHAI.

Подготовил Никита Корф

Данные о правообладателе фото и видеоматериалов взяты с сайта «РАПСИ», подробнее в Правилах сервиса