Развитие цифровых технологий неизбежно поменяет работу судей, правоприменителей, юристов. В частности, на искусственный интеллект одни возлагают большие надежды (как минимум, он позволит снизить служебную нагрузку), тогда как другие испытывают большие опасения: не принесет ли нейроразум больше сложностей и несправедливости, чем решения специалиста из плоти и крови? Обществу еще предстоит поставить искусственному интеллекту границы дозволенного, а судам – выработать правовые подходы к новым цифровым элементам. Как проходят эти процессы, рассказала председатель Суда по интеллектуальным правам, лауреат премии «Юрист года – 2013» Людмила Новоселова в интервью РАПСИ.
— Людмила Александровна, в нашей жизни все чаще встречаются цифровые элементы, правовая суть которых не всегда нам понятна. Это дипфейки, эмодзи и другие решения новой реальности. Какие подходы выработаны по отношению к ним? В зарубежной практике эмодзи недавно был признан доказательством в суде…
— Нам пока сложно говорить о практике нашего суда по делам, где бы присутствовали такие элементы. Впрочем, несколько лет назад было достаточно интересное дело, связанное с использованием новых технологий для формирования представлений о кредитоспособности лиц, разместивших свои данные в одной социальной сети. Спор касался квалификации этого массива данных, возможности их использования и так далее.
Спор закончился мировым соглашением, поэтому не было итогового акта, где были бы сделаны итоговые правовые выводы. Но многие аспекты, которые обсуждались в ходе рассмотрения этого дела, интересны для развития систем, бизнесов, построенных на анализе открытых данных. Пожалуй, это самое громкое подобное дело на сегодняшний день.
Чаще мы сталкиваемся с иными ситуациями: это многочисленные нарушения в интернете, которые допускаются при размещении товарных знаков на страницах сайтов и на маркетплейсах, при использовании обозначений в доменных именах. Поскольку такие споры ведутся уже не первый год, правовые подходы к их разрешению уже выработаны.
Недавно Верховный Суд РФ опубликовал очень важный и обширный документ (Обзор судебной практики рассмотрения гражданских дел, связанных с нарушением авторских и смежных прав в информационно-телекоммуникационной сети «Интернет», утв. Президиумом Верховного суда РФ 29.05.2024 г. − прим. ред.). В нем приводится практика, которая сформировалась в судах и в Суде по интеллектуальным правам, по различным вопросам, касающимся нарушений авторских прав в интернете.
Несмотря на то, что по названным вами новым цифровым объектам пока иски немногочисленны, мы следим, как рассматриваются такие дела за рубежом, какие вопросы обсуждаются. Этот материал интересен для осмысления — не только для выработки подходов к судебным делам, но и для развития юридической науки.
— Экспертиза Суда по интеллектуальным правам наверняка будет востребована среди всех инстанций на фоне того, что в нашу жизнь все активнее входит искусственный интеллект. Есть определенный спектр страхов, связанных с нейроразумом. Как вырабатывать подходы к спорам, где фигурирует ИС? Например, кто в ответе за наезд, совершенный беспилотным автомобилем?
— Полагаю, что в ситуации с наездом беспилотного автомобиля на человека если и нужны какие-то специальные познания, то это скорее технические.
С юридической же точки зрения, на мой взгляд, существует много надуманных дискуссий, которые ведутся по поводу вреда, причинённого в результате использования искусственного интеллекта в транспортных средствах.
Часть обсуждений предваряют попытки построить правовые конструкции, нацеленные на выведение из-под удара разработчиков искусственного интеллекта, минимизирование их рисков. Звучат предложения наделить этот искусственный интеллект правосубъектностью, закрепить за ним имущество, которым он будет отвечать, и объемом этого имущества ограничить ответственность перед потерпевшим за то, что произошло. Это спорные предложения, за которыми стоит желание снять с себя ответственность.
В то же время в гражданском праве за века его существования выработано много конструкций, которые являются универсальными. Они легко подстраиваются под изменяющийся мир, их гибкость позволяет применить их для тех ситуаций, которые, очевидно, при их создании не существовали. Так, ситуации, связанные с использованием технологий искусственного интеллекта с точки зрения классической цивилистики укладываются в конструкцию вреда, причиненного источником повышенной опасности. Вопрос ответственности за вред, причиненный наездом беспилотного автомобиля, может быть разрешен с использованием этой правовой конструкции. Важно определить, что именно следует считать источником повышенной опасности. Сейчас не очень много внимания уделяется обязательствам, исходящим из причинения вреда. Но в свое время Верховный суд разъяснял, что источником повышенной опасности является не объект сам по себе, не машина, а деятельность, связанная с использованием соответствующего технического решения (п. 18 постановления Пленума Верховного Суда РФ от 26.01.2010 №1 «О применении судами гражданского законодательства, регулирующего отношения по обязательствам вследствие причинения вреда жизни или здоровью гражданина» − прим. ред.).
Этот подход в приведенном примере работает на 100%. Кто использует техническое решение в своей деятельности, тот по общему правилу и отвечает за причиненный вред, независимо от вины. Это позволяет быстро возместить вред потерпевшему. И уж потом решать, может ли владелец источника повышенной опасности переложить понесённые им расходы полностью или в части на других лиц (разработчиков программы, продавца автомобиля и т.д.).
В целом, по моему убеждению, попытки наделить искусственный интеллект правосубъектностью, способностью нести самостоятельную ответственность – это путь тупиковый. Несколько лет назад были соответствующие законопроекты, они активно обсуждались в научной среде. Как объект дискуссий − это, действительно, достаточно интересно. Но, придумывая новое, мы не должны необоснованно отказываться от уже существующих и успешно работающих конструкций.
— Как вы оцениваете инициативу создания цифрового кодекса?
— С точки зрения структуры законодательства не совсем понятно, какое место займет цифровой кодекс в системе наших кодифицированных актов. Кодекс — это акт, объединяющий в себе нормы, которые логически связаны и касаются определенного предмета регулирования. И это касается не только гражданского или уголовного кодекса, но и налогового, семейного – есть определенная сфера отношений, которая должна регулироваться по определенным правилам, исходя из определенных принципов.
В отношении цифрового кодекса не совсем ясно, что является предметом регулирования, какие методы будут положены в основу регулирования, будет ли такая совокупность норм обладать структурным единством. Объединить из разных актов все нормы, где упоминаются цифровые права, цифровые сущности, цифровизация это не значит создать кодекс.
Законодательство последних 15 лет по вопросам, связанным с «цифрой», несовершенно. В нем много технических терминов, оно сложно для понимания для простых граждан, да и юристам не просто продраться через неряшливо сформулированные правила.
Конечно, законодательство в рассматриваемой сфере требует ревизии и систематизации. И только после систематизации можно оценить, требуется ли кодификация или нет.
— Помимо правосубъектности, искусственный интеллект пытаются наделить и трудовой самостоятельностью. Один из главных алярмистских прогнозов – что в недалеком будущем нейроразум лишит часть из нас работы. Разделяете ли вы эти опасения? Нужны ли нам в таком случае специальные правовые конструкции, которые защитят трудовые права людей?
— В мире уже есть случаи, когда художники предъявляют претензии создателям искусственного интеллекта. Сутью таких претензий к разработчикам ИИ является то, что для обучения нейронных сетей используются их картины, их творчество. Впрочем, на эту ситуацию можно посмотреть и по-другому: нейросеть должна на чем-то учиться. Для обучения нейросети требуется информация, в том числе анализ множества объектов, среди которых есть и объекты, охраняемые авторским правом. В этом усматривают нарушение: при обработке таких объектов программой происходит их использование без согласия правообладателей.
Кроме того, художники опасаются, что сгенерированные изображения сделают их труд ненужным, завоюют рынок. На эту ситуацию, впрочем, можно посмотреть не только с точки зрения авторского права. Мне кажется, что бояться искусственного интеллекта может тот художник, который сам немного «подхалтуривает». Действительно талантливому и оригинальному автору, с собственным взглядом на мир, не нужно бояться того, что искусственный интеллект может его превзойти.
Возможно, нейросеть сделает картинку ярче, красивее. Но взгляд творческой личности – шире и многообразнее. Пробовала создавать изображения в нейросети, но не помню, чтобы созданная нейросетью картинка тронула меня до глубины души, заставила испытать глубокие чувства. А «живые» картины это могут. Дело не в красоте картинки, не в композиции, а в особом взгляде автора произведения на мир.
Не следует бояться развития техники. Описанный вами страх художников подобен тому, как луддиты (участники стихийных протестов первой четверти XIX века против внедрения машин в ходе промышленной революции в Англии − прим. ред.) ломали станки, устраивали бунты из боязни остаться без работы, потому что станки заменят работника.
Сейчас, напротив, настоящий творческий труд востребован, бояться тем, кто может «креативить», не надо: они в любом случае найдут сферу применения.
Это касается и юристов. Помните, пугали, что юристов не будет, потому что придет искусственный интеллект, и он за вас напишет исковое заявление? И судей тоже не будет, потому что нейросеть сгенерирует результат из массы прецедентов и вынесет соответствующее решения. Нет, не вынесет, не сгенерирует, не напишет, потому что жизнь шире наших представлений о ней, а искусственный интеллект основывается на наших же представлениях. В разговоре с одной женщиной, успешной актрисой, услышала интересную фразу, которая меня задела: «Знаете, какое качество наиболее востребовано в людях? Эмпатия». Это способность по-человечески реагировать на человека.
Как вы думаете, почему современные люди все чаще обращаются к психологу? Им не хватает просто живого человеческого общения. «Цифра» не способна заменить для человека. Только человек может почувствовать, пожалеть, простить, поддержать, вдохновить. А «цифра» ни в искусстве, ни в праве (которое тоже, в своем высшем выражении, искусство) – не может.
— В целом, какие вызовы в правоприменении нам может поставить цифровизация, включая развитие искусственного интеллекта и другие ее аспекты?
— Стремление использовать искусственный интеллект велико, поскольку эти технологии могут во многом облегчить работу, в том числе судьи и любого правоприменителя. Однако надо быть очень осторожными.
Например, может ли программа генерировать судебные акты? Естественно, создавать базовый текст, готовить техническую основу искусственный интеллект может, и в этом нет ничего плохого. Но в конечном итоге необходимо понимать ту грань, после которой решение должен принять только человек. Человека должен судить человек.
Идея, что машина будет судить человека, неправильна с самых базовых философских позиций. Этого нельзя допускать.
В одной из правовых систем был проведен эксперимент, в рамках которого решение о том, предоставлять или не предоставлять право на досрочное освобождение, принималось системой искусственного интеллекта. Мнения самих заключенных тогда разделились: кто-то считал, что так будет более объективно. Кто-то полагал, что человек всегда более понимающий. Но мне лично становится тревожно при мысли о том, что такие вещи, которые связаны с определением судьбы человека, будут поручены программе. Поэтому главный вызов состоит в том, чтобы определиться, где мы остановимся в своем доверии цифре и недоверии к себе подобным.
Фото:пресс-служба МГЮА
Источник:РАПСИ