Боты, роботы, андроиды - все формы искусственного интеллекта (ИИ) творят наукоемкую революцию, которая меняет жизнь и человека. Однако ИИ таит в себе риски не меньшие, чем несет коронавирус или ядерная угроза. И пока не поздно, это внедрение надо упорядочить. Как?
Людям надо решить, следует ли наделять роботов статусом "электронной личности". Фото: Gettyimages
Знакомая установила на айфон "Алису". Этот день ей запомнился тем, что пополз полугодовалый сын. Муж смотрел, а жена пошутила: "Не успеем оглянуться, женить будем". Через полчаса ее айфон завалила реклама свадебных салонов. Другой знакомый поссорился с женой. Она на домашнем компьютере просматривала женское белье в интернет-магазине, и служебный "комп" мужа теперь регулярно выдает порции женских трусиков под дружный "ржач" коллег.
- Это первые "хакерские атаки" ИИ на внутренний мир человека, - считает директор-координатор центра "Природоподобные технологии" НИЦ "Курчатовский институт" Вячеслав Дёмин. - Пока человек переживает их как вирусный контент, не всегда понимая, что его атакуют, в общем-то, неумело. ИИ тоже еще часто не понимает, что делает. Это информационные технологии. Они действуют на основе математических нейронных сетей. Но науке уже ясно, что нужно двигаться в сторону импульсных нейронных сетей - биотехнологий. Вот они могут стать как прорывом, так и головной болью.
Правда, Дёмин на вопрос: если так примитивен ИИ, что же он на любой запрос - поиск книг, билетов на самолет, обуви или одежды выдает не запросы человека, а предпочтения поисковиков? - с пониманием кивает головой. Исследования НИЦ "Курчатовский институт" (Россия) и Массачусетского технологического института (США) показывают, что инфотех через поисковики дает искаженное представление о предмете. И дело не в том, что, если кто-то ищет кроссовки, ему система выдает варианты подороже, а потом заваливает контентной рекламой. Дело в системе анализа: при поиске машины анализируют предпочтения, моделируют психологический строй выбора личности и предлагают, на их взгляд, подходящее. Но если информационные технологии выбор делают на основе математического анализа, то импульсы нейронных сетей или биотех более "искушены". Они замеряют мозг. Сегодня происходит сплетение инфотеха и биотеха, что рождает более совершенный ИИ.
Когда разовьются биотехнологии, хакерские атаки ИИ на внутренний мир человека станут и прорывом, и головной болью
Пример такого соединения - социальное рейтингование в мегаполисах Китая. На уровне инфотеха определяется, что человек читает, занимается ли спортом, переходит ли на красный свет дорогу, его круг общения, путешествует и занимается ли самообразованием, и все это в совокупности повышает или понижает его социальный статус. Параллельно работает биотех - биометрический замер пульса, давления, эмоций. Однако хитрость в том, что если замеряют десятки миллионов людей, то ИИ умеет создавать шаблоны - реакций, эмоций, переживаний по… частоте сердечных сокращений, движению зрачков и даже по рефлексам - выделению слюны или движению языка. Так ИИ на основе алгоритмов обрабатывает личность как схему на инфо- и биоуровне. Из схемы-колбы можно изъять как отрицательные качества, так и создать внутри нее среду для развития "нужных".
Первым о неоднозначности этого явления, способного менять природу человека, заговорил профессор Еврейского университета в Иерусалиме Юваль Ной Харари. Он утверждает, что уже есть экспериментальные лекарства, размягчающие "плохие" качества по модели антибиотика. Есть и более эффективное воздействие на мозг - немедикаментозное. То самое, когда ИИ предлагает выбрать уже не кроссовки или женское белье, а модель поведения - на какой цвет светофора перейти дорогу, какую профессию выбрать, за кого проголосовать. Харари убежден, что не важно, кто будет распоряжаться результатом работы по передаче эмоций при помощи языка тела - робот или человек. Важно, что, используя хакерские технологии, этот "гуру" получит доступ к закрытой информации. Проще говоря, "хакнет" чужой мозг и душу. Анализ ученого совпадает с прогнозами Еврокомиссии парламента ЕС: через десятилетия искусственный мозг превзойдет человеческий. Если к этому не подготовиться , интеллектуальное превосходство машин усложнит задачу контроля людей над ними и они выйдут из под него.
- Машины не могут бросить вызов человеку и стать орудием войн, - спорит директор Microsoft Россия Владислав Шершульский. - Военная наука перестала быть драйвером прогресса, а центром принятия решений остается человек. Вот его "взломать" может другой человек. А роботы если чем-то и угрожают, так это подменить человека на скучной, грязной и опасной работе. А пока отношения с ИИ похожи на отношения с домашними животными, но скоро станут отношениями с разумными существами.
Шершульский признает, что логика развития ИИ ведет к тому, что машины станут "киборгами с сердцем". И тогда, права Еврокомиссия, встанут технические и правовые вопросы - рабочие места для роботов и людей, вопросы разделения ответственности за нанесенный вред или распределение выгод между машинами и людьми.
- Не надо смешивать технологическую автономию с социальной, - говорит Алексей Южаков, глава компании Promobot (Пермь), поставляющей роботов в 27 стран мира. - Управление кофеваркой не сказывается на полномочиях местных органов власти. Проблема ИИ не в атаке извне, а в слабостях, которыми могут пользоваться люди, имеющие к технологии доступ, как это было с атомными станциями в Чернобыле или на Фукусиме.
Как признают оба эксперта, проблемы оотношений людей и машин связаны с такими понятиями, как человеческое достоинство, охрана частной жизни и физическая безопасность человека, если машины начнут сбоить или их взломают хакеры. Но как человек, продлевая свой век и меняя отслужившие органы - руку, желудок или даже часть мозга на искусственные, будет чуть-чуть "киборгом с сердцем", так и машина, как прогнозируют ученые, научившись распознавать и передавать чувства, станет "киборгом с сердцем". Поэтому Европарламент, разрабатывая закон об ИИ, решает философскую задачу - следует ли наделять будущих роботов статусом "электронной личности"? Пока законопроект сказал: "Да". Но оговорил условие - машины обязаны иметь устройство, которое отключит все их функции. И оставил за собой право принятия закона до 2030 года.
Используя хакерские технологии, "гуру" искусственного интеллекта получит доступ к закрытой информации. Проще говоря, "хакнет" чужой мозг и душу
Экспериментальный правовой режим для ИИ готовится и в России. Он дает шанс развивать технологии, которые пока не регулируются законом, в "научных заповедниках".
- Это "цифровая песочница" или детский сад для социализации роботов, - говорит Вячеслав Дёмин. - Он нужен, ведь наука не до конца понимает, как происходит донастройка нейросетевых алгоритмов. Еще есть методы их обмана, ИИ делает ошибки. Допустим, человек надевает футболку с принтом тропического леса, а алгоритм распознает его как пальму. Или если поставить определенные комбинации точек на лицо человека, то ИИ не определит человека. Тут опасность ИИ в том, что он влияет на принятие решений, - на поведение "беспилотника", где ошибки в распознавании образов могут стать смертельными.
Тем не менее все три эксперта убеждены в том, что страхи людей по поводу того, что роботы хакнут человека, зависят от самого человека. Ученые признают, что есть вещи, которые не имеют корректного решения - изобретения атомного оружия никто не хотел, но оно есть, как и мирный атом, дающий свет и тепло. Так и анализ ситуации и принятие решений постепенно переходят на уровень ИИ. Это означает, что как атом, так и ИИ с точки зрения доктрины взаимного уничтожения ничего не меняют. Они меняют психологию личности. Если человек увидит в ИИ "окно возможностей" и научится им управлять как атомом, он останется человеком.