Технологии искусственного интеллекта в организационно-управленческой среде: этическая проблематика

Аннотация

Искусственный интеллект (далее — ИИ) — активно развивающаяся область науки, которая уже успешно внедряется на практике. В статье рассматриваются направления внедрения ИИ в социальную сферу. Однако, в статье отмечается, что успешное внедрение этой технологии может принести не только положительные результаты. Темпы развития ИИ требуют повышенного внимания к вопросам этики ИИ, и вопрос ответственности — это лишь один из многих этических вызовов, возникающих при использовании систем, которые основаны на ИИ. В связи с этим отмечено, что установление приоритетов этических руководящих принципов для ИИ является серьёзным шагом в обеспечении гарантий безопасности и повышения степени признания этой технологии. Тем не менее, следует констатировать, что вокруг этических вопросов ИИ сегодня образовался своеобразный вакуум. Отмечено, что на множество вопросов о том, как обеспечить равные возможности для всех пользователей технологий, основанных на ИИ, как обеспечить, чтобы ИИ развивался прозрачно, — пока нет четкого ответа. Поэтому надо обратить внимание на то, что ИИ — технология, эффективное использование которой зависит от качественной подготовки, постоянной оценки и продуманного этического сопровождения, основанного на инклюзивном подходе.

С появлением в середине XX в. первых вычислительных машин и изобретением компьютеров начали формироваться условия для создания ИИ. А разработка в 2010­х гг. новейших графических процессоров, позволяющих ускорять сложнейшие вычисления, усилила интерес к развитию ИИ. Вместе с этим становился все более актуальным вопрос ответственности за использование систем, основанных на ИИ. Цель данной статьи, с одной стороны, показать, что активное использование ИИ в социальной сфере организации способно приносить ей пользу. С другой стороны, мы хотим подчеркнуть, что нельзя заявлять о безрисковом характере внедрения этой сложной и постоянно развивающейся технологии. Как и любой проект, ИИ требует предварительного анализа, планирования, тщательного выбора инструментов, оценки, обратной связи и постоянного совершенствования.

Благодаря влиянию научно-фантастических произведений в массовой культуре понятие ИИ стало ассоциироваться с роботами, способными к поведению, реакциям, эмоциям, присущим человеку [5]. Научное сообщество по­ другому интерпретирует определение ИИ. Достаточно часто ИИ сегодня рассматривается как область когнитивных вычислений [14]. Однако первоначальная трактовка данного понятия, сформулированная в 1955 г. Джоном Маккарти, определяет ИИ как «науку и технику создания интеллектуальных машин» [9].

Мы придерживаемся более широкого взгляда на толкование сути данного явления, соглашаясь с авторами, которые рассматривают ИИ как технологию, алгоритм, устройство или компьютерную программу, способную решать интеллектуальные задачи, включающие анализ данных, прогнозирование, принятие решений, что ранее было возможно выполнить только человеку [14; 16]. Обладая достаточной информацией об этой области науки, несложно себе пред­ ставить, что ИИ перестал быть популяризированным мифом и стал частью нашей жизни. Этот факт подтверждается исследованием McKinsey Analytics «The state of AI in 2020», проведенном в 2020 г. с привлечением 2395 респондентов. Результаты опроса показывают, что около 50% организаций из числа участников исследования используют компоненты ИИ хотя бы в одном бизнес-процессе [11].

Во многих областях управления ИИ оказывает серьезное влияние на способы взаимодействия людей друг с другом. На этом пути мы можем столкнуться с существенными этическими проблемами, требующими тщательного философского и этического анализа и регулирования. Сегодня множество работ ведущих отечественных и зарубежных ученых посвящено изучению социального воздействия ИИ на многие сферы жизни человека и, прежде всего, на социальную сферу с целью поиска путей избегания каких-либо негативных последствий бесконтрольного использования ИИ [16]. Чаще всего авторы, исследующие этику ИИ, обращают внимание на проблему предвзятости, которая закладывается в процесс принятия решений ИИ. Наиболее частые пред­ убеждения связаны с гендерной предвзятостью [2]. Кроме этого, большая доля опасений высказывается в отношении технологий ИИ, заменяющих людей на их рабочих местах [12, 13].

Мы задались целью получить ответ на вопрос, кто сегодня играет значимую роль в создании, принятии и обеспечении соблюдения этических и моральных стандартов? Некоторые исследователи высказывают предположения, что ИИ и автоматизация существенным образом повлияют на разрыв в благосостоянии населения. Какова должна быть государственная политика и какие нормативные акты могут по­ мочь в предотвращении этого разрыва? Как помочь работ­ никам, кому на смену идет ИИ, кто должен гарантировать, что в программы ИИ не заложены различные человеческие предубеждения, можно ли говорить о единой общемировой этике ИИ или в ней должны учитываться культурные особенности разных стран?

Внедрение ИИ резко возросло за последние 6 лет. В 2015 г. Gartner [3] обнаружила, что только 25% компаний используют или планируют использовать решения ИИ. Но к 2019 г. это число выросло до 37%. Очевидно, что по мере того, как технологии совершенствуются и бизнес видит ценность внедрения ИИ, эта тенденция будет только усиливаться. В ходе опроса, проведенного компанией Cognilytica в 2020 г. среди 1500 представителей компаний и государственных органов, почти 90% респондентов заявили, что в ближайшие два года они будут внедрять ИИ в полном объеме [4].

Еще одним толчком к внедрению в работу компаний ИИ в последние годы стала пандемия COVID­19. Несомненно, это масштабное явление разделило нашу жизнь на до и после. Бизнесу пришлось адаптироваться, автоматизироваться, переключаться на удаленную работу и переходить в online­пространство. Как ни странно, именно в этот период многие организации стали активно инвестировать в технологии ИИ.

Анализируя данные о трансформации процессов, как на уровне рынка труда, в отдельных областях социальной сферы, так и на уровне отдельного работника, мы лишь подтверждаем существующее положение, как о глобальных пре­имуществах, так и о существенных ограничениях использования технологий ИИ, которые будут возникать до тех пор, пока не будут приняты и не заработают законы и нормативные акты, регулирующие вопросы этики ИИ (см. таблицу).

Таблица Преимущества, ограничения и риски использования технологий, основанных на ИИ, в социальной сфере

Преимущества использования технологий ИИ

Ограничения и риски использования ИИ

Рынок труда

Появление новых профессий, удешевление производства продукции, увеличение темпов и объемов производства, высвобождение свободного социального времени для отдыха и интеллектуальной деятельности

Возможное вытеснение людей с рынка труда, массовая безработица, угроза низкоквалифицированным рабочим, чьи рабочие места могут быть легко автоматизированы

Технологии управления персоналом организации

Использование ИИ при выявлении и отборе кандидатов (автоматизация поиска, проведения интервью)

Возможна дискриминация кандидатов при отборе по результатам анализа ИИ успешных работников

Сбор информации с помощью чатботов, использование ИИ для самообслуживания сотрудников

Злоупотребление руководством организации полученными данными в целях усиления психологического воздействия на работников

Активное использование ИИ в обучении и адаптации сотрудников (vr, дополненная реальность)

Обесценивание физического развития человека — оно становится малозначимым для производства и функционирования человека в обществе

Ускорение обработки больших данных и принятия решений, внедрение электронного документооборота

ИИ всегда будет анализировать ситуацию с точки зрения предварительных данных и прошлого опыта, ограниченность творческого и гибкого подхода в решении оперативных задач

Выявление сотрудников, подверженных рискам увольнения

«Цифровое рабство» — беспрецедентные возможности для манипуляции различными аспектами жизни работников обладателями персональных данных

Увеличение заработной платы в высокотехнологичных отраслях и странах с большим процентом молодого населения (например, Индия, Китай)

Стагнация или падение уровня заработной платы в широком спектре профессий со средним уровнем дохода, поляризация доходов. Расширение существующих гендерных разрывов в оплате труда, так как в мире всего лишь около 20% женщин, владеющих технологиями ИИ

Коммуникации и удаленная работа

Ускорение коммуникаций, мгновенная связь, чат-боты с сотрудниками 24/7

Трудности с личным общением, социальное дистанцирование и социальная изоляция, оторванность от социума, рост социальной неустойчивости

Приведенные данные дополняет аргументы об актуальности и масштабности развития ИИ. С другой стороны, очевидны риски распространения ИИ в социальной сфере. Расшифровывая приведенные в таблице данные, можно отметить следующее. Исследование McKinsey показало, что к 2030 г. роботы заменят по меньшей мере 30% человеческого труда, то есть почти 400–800 миллионов рабочих мест. Это, в свою очередь, повлечет за собой увольнение и поиск новой работы для 375 миллионов человек [10]. Это только данные, подтверждающие возможный риск в одной из областей применения ИИ, однако, это прогнозируемые данные. Более актуальной и серьезной непосредственной проблемой является сегодня неправильное использование ИИ либо по небрежности, либо по злому умыслу. Кроме этого, машинам неподвластен так называемый эмоциональный интеллект. Да, машины способны моментально обрабатывать огромные данные и принимать логические решения, основанные на принципах статистики.

Но когда ожидания и удовлетворение клиентов основываются на небольшом сочувствии, ИИ практически бессилен. Например, даже простое решение о покупке в той или иной степени чаще коренится в эмоциональной потребности, чем в рациональном выборе.

Еще одним, казалось бы, эффективным направлением для использования ИИ является автоматизация рутинных задач. Современные системы способны анализировать поступающие на почту электронные письма, категорируя и сортируя их, обрабатывать поступающие запросы и голосовые сообщения, анализировать документы. Все эти рутинные задачи могут быть переданы в обязанность ИИ. Однако, наступление ИИ в отраслях с большим количеством рутинных рабочих мест — производство, кол-центры, банки, розничная торговля и т.д. может нести разрушительный характер не только с точки зрения изменения структуры занятости на рутинных работах и вытеснения работников с рабочих мест. Данный процесс вынудит действующих игроков рынка конкурировать в быстроте автоматизации рутинных процедур. Поскольку, естественно, победившие в этой конку­ рентной борьбе получат экономические выгоды и сверхприбыли. Небольшое количество компаний (ИИ­компании, Интернет+ИИ­компании, ИИ­SaaS­компании и т.д.) будут иметь сверхприбыль, а все другие разорятся, не выдержав конкуренции, или будут близки к этому.

Одним из направлений внедрения ИИ является выявление сотрудников, подверженных риску увольнения. Мы выяснили, что подобный анализ проводится с помощью плат­ форм, оценивающих рабочую активность человека, основываясь на использовании мобильных устройств, электронной почты, пропусков, сравнивая при этом эти данные с его средними и более ранними результатами, а также с оптимальными моделями поведения. Обработав полученную информацию, платформа передает данные руководителю или менеджеру. Такая система позволяет оперативно оценивать сигналы об отсутствии у сотрудника вовлеченности в работу, о возможном желании покинуть организацию.

Однако, в рамках концепции психологического контракта руководители не должны забывать об этической стороне при внедрении подобных платформ и приложений для сбора информации о сотрудниках, так как у руководителей и их подчиненных могут быть различные цели использования передаваемой и получаемой информации. Подчиненные могут делиться данными о своей физической активности в целях управления здоровьем и безопасностью, а руководители могут использовать данную информацию в целях более точечного воздействия в своей управленческой практике. Поэтому так называемый психологический контракт между руководителем и подчиненными может быть нарушен, если последние почувствуют, что за ними наблюдают или злоупотребляют их данными [2].

Какие можно дать гарантии в отношении того, что алгоритмы, закладываемые при разработке умных машин, не нарушают фундаментальные права человека — от конфиденциальности данных до свободы выбора и свободы совести? Будет ли доступна свобода действий, когда наши желания предвосхищаются и направляются с помощью технологий ИИ? Могут ли ценности программироваться и кем? Кому вообще подчиняются люди, осуществляющие взаимодействие с системой ИИ? Умной машине или ее разработчикам? Кто несет ответственность за управленческие решения ИИ?

Таким образом достижения в области ИИ породили целый ряд более острых и сложных моральных вопросов.

Нынешние усилия по поиску ответов на этические, социальные и правовые проблемы, связанные с применением технологий, основанных на ИИ, в настоящее время все еще представляют собой набор разрозненных инициатив. Это обстоятельство усиливает необходимость широкого диалога работодателей, представителей социальной сферы, власти, в центре которого будут ценности, закладываемые в техно­ логии ИИ, и определение самой роли данных технологий в организациях в частности и в обществе в целом.

В целом необходимо помнить, что ИИ — это инструмент, а не конкурент, он служит человеку, но не наоборот. Однако, при таких масштабных направлениях использования технологий ИИ возникает закономерный вопрос — кто будет отвечать за внедрение ИИ в организации, обществе, государстве?

Что касается уровня организации, то в современных компаниях возникают сложности как со специалистами, обладающими навыками и знаниями в области этики ИИ, не­ пониманием подходов к ИИ, так и в целом с регламентирующими положениями, закрепляющими ответственность за использование технологий ИИ.

Конечно, на государственном уровне предпринимается большее число шагов к регулированию вопросов этики ИИ. Однако, директивные органы должны более активно взаимодействовать с инженерами и проектировщиками в разработке систем ИИ, в противном случае поведение ИИ будет целиком и полностью зависеть от их создателей, которые не являются экспертами в вопросах разработки государственной политики. На самом деле, инженеры­проекти­ ровщики, занимающиеся системами ИИ, могут вообще не иметь представления о том, что они кодируют законы, политику, этику и мораль.

Поэтому многие развитые и развивающиеся страны активно создают внедряют национальные стратегии ИИ. В России этот вопрос был также официально поднят в 2019 г. по поручению Президента РФ.

В 2017 г. В.В. Путин выразил мнение, что страна, которая первой овладеет ИИ, станет «правителем мира» [1].

Одним из направлений регулирования ИИ в России является государственная программа цифровизации «Стратегия развития информационного общества в России на 2017– 2030 годы», утвержденная Указом № 203 Президента РФ в 2017 г. Руководит этими процессами Министерство цифрового развития, связи и массовых коммуникаций РФ, которое реализует национальные программы «Цифровая экономика Российской Федерации», «Электронное правительство» и другие проекты. В соответствии с этим в федеральных органах исполнительной власти появились руководители по цифровой трансформации (РЦТ).

Минэкономразвития России создало паспорт федерального проекта «Искусственный интеллект», в котором отражены направления содействия развитию интеллектуального потенциала и обучению ИИ.

Однако, стоит помнить, что ИИ — это инновационный проект, который требует жестких процедур анализа, оценки, планирования и т.п. Обеспечение этики ИИ является не­ отложной и критической задачей. При этом отметим, что в РФ, как и во многих других странах, до сих пор не приняты законы, регулирующие вопросы этики ИИ. Вот здесь и возникает основная сложность.

Чтобы сделать поведение машины (принятие моральных решений) приемлемым для человека, требуются объяснения самого процесса принятия решений [6]. Одна из психологических проблем для реализации этики ИИ заключается в том, что люди применяют различные моральные ценности для себя и для других. Идеальным решением будет разработка систем ИИ, которые следуют идеальным этическим принципам. Это просто звучит в теории, но это весьма затруднительно реализовать на практике. Для того чтобы разработчики могли создать абсолютно безвредную систему или технологию ИИ, самим разработчикам нужно четко пони­ мать, что такое вред. Для этого потребуется глобальный уровень этики, который включает общий набор информации между разработчиками этических стандартов (организации, общества, государства) и разработчиками ИИ.

Страной, которая запустила первую национальную стратегию по регулированию ИИ в марте 2017 г., стала Ка­ нада, за ней вскоре последовала Япония, и с тех пор было опубликовано множество инициатив, включая национальные стратегии европейских стран, Китая, ОАЭ, Сингапура, США, России и ряда других. Рассмотрим некоторые из них.

Так, в Евросоюзе создано большое количество резолюций и хартий, направленных на обеспечение этики ИИ. Например, Резолюция Европейского парламента о гражданско­правовых нормах, касающихся робототехники, содержит призыв к Европейской комиссии принять предложение о законодательном акте, предусматривающем гражданско-правовые нормы об ответственности роботов и ИИ. В этом же документе содержится требование определить критерии для классификации роботов, которые должны быть зарегистрированы где­либо. Также в Евросоюзе проходит активное обсуждение хартии, которая будет представлять собой кодекс поведения инженеров­робототехников и роботов, которым будет присвоен статус электронных лиц и на которых предлагается возложить ответственность за решения, которые они будут принимать самостоятельно.

В июле 2017 г. Государственный совет Китая выпустил новое поколение ИИ — План развития, в котором изложены долгосрочные стратегические цели развития ИИ в Китае до 2030 г. Он содержит «гарантийные меры»: разработка системы регулирования ИИ, усиление защиты интеллектуальной собственности и разработка нормативных и этических рамок. Эта мера направлена на укрепление исследований по правовым, этическим и социальным вопросам, связанным с ИИ, и создание нормативных и этических рамок для обеспечения здорового развития ИИ. В Германии создана Комиссия по этике ИИ, в США выделяются миллиарды долларов не только на программы создания ИИ, но и на программы поддержки равных прав и конфиденциальности при использовании ИИ.

Отличным ресурсом в этом контексте является сравни­ тельный обзор 84 этических руководящих принципов, вы­ пущенных национальными или международными организациями из различных стран [7]. Мы обнаружили сильную конвергенцию данного ресурса с собственными исследованиями [8] наиболее значимых этических принципов, связанных с применением ИИ. Среди этих принципов выделим следующие:

-  прозрачности,

-  справедливости и честности,

-  безопасности (ненасилия),

-  объяснимости,

-  конфиденциальности.

Данное обстоятельство подтверждается и статистическими базами данных, имеющих отношение к социальным, поведенческим аспектам внедрения технологий ИИ. Однако, даже эти принципы, провозглашаемые во всех общественных документах в разных странах, наполняются своим собственным, отличительным смыслом в зависимости от кросс­культурных особенностей той или иной страны. Поэтому мы можем сделать вывод, что человеческий фактор будет еще долго определяющим при разработке принципов поведения умной машины, а желание смягчить этические принципы в сфере ИИ в угоду собственному обогащению, к сожалению, будет способствовать появлению расплывчатых формулировок в правилах и предписаниях.

Как мы видим из приведенных исследований, внедрение ИИ ведется не только в бизнес­процессы, направленные на внешнее взаимодействие, но и преобразует внутренние процессы, связанные с сотрудниками. Из этого следует, что трансформируется и социальная сфера организации. В практическом отношении ИИ располагает значительными возможностями для использования. Но одновременно с этим необходимо осуществлять разработку новых этических под­ ходов его применения. Мы делаем вывод, что не может быть однозначных, общемировых решений при разработке таких морально-этических принципов ИИ, поскольку до сих пор культурные особенности нации определяют существующую в той или иной стране мораль. Разработкой концепций этики ИИ занимаются в основном западные ученые. Соответственно, необходимо добиваться, чтобы данные разработки носили инклюзивный характер, включая в себя и не­ западные концепции этики, к примеру, этику православных добродетелей или конфуцианские перспективы.

Поэтому мы придаем большое значение целенаправленной, скоординированной работе по формированию этических принципов ИИ, поскольку данная область все еще находится в стадии становления, приобретая все большую практическую значимость. Мы надеемся, что данная статья подтолкнет заинтересованных лиц к развертыванию конструктивной дискуссии по этике ИИ, а выделенные главные принципы этики ИИ будут полезным инструментом при формировании этико­правовой базы использования ИИ в социальной сфере.

Протоиерей Вадим Леонов

Екатерина Викторовна Каштанова

Леонов В.А., Каштанова Е.В. Технологии искусственного интеллекта в организационно-управленческой среде: этическая проблематика // Управление персоналом и интеллектуальными ресурсами в России. М.: Научно-издательский центр ИНФРА-М, 2022, № 3 (60). С. 12-16. DOI 10 12737/2305-7807-2022-11-3-12-16

ЛИТЕРАТУРА

1. «Тот, кто возглавит ИИ, будет править миром»: Путин российским детям в День знаний. [Электронный ресурс]. — URL: https://www.rt.com/news/401731­ai­rule­world­putin/ (дата обращения: 29.04.2022).

2. Chang К. Artificial intelligence in personnel management: the development of APM model. The Bottom Line. — 2020. — vol. 33. No. 4, pp. 377–388. DOI 10.1108/BL­08­2020­0055.

3. Gartner Survey Shows 37 Percent of Organizations Have Implemented AI in Some Form. Режим доступа: https://www.gartner.com/en/newsroom/ press­releases/2019­01­21­ gartner­survey­shows­37­percent­of­organizations­have/ (дата обращения: 27.04.2022).

4. Global AI Adoption Trends & Forecast. Режим доступа: https://www.cognilytica.com/2020/01/22/global­ai­adoption­ trends­forecast­2020/ (дата обращения: 30.04.2022).

5. Gunkel D.J., Byson J.J., Torrance S. Behind the Mask: Machine Morality. In K. Miller, M.J. Wolf, F. Grodzinsky (Eds.), The Machine Question: AI, Ethics and Moral Responsibility. Birmingham: AISB/IACAP World Congress, 2012, 34–38.

6. Chang К. Artificial intelligence in personnel management: the development of APM model. The Bottom Line. — 2020. — vol. 33. No. 4, pp. 377–388. DOI 10.1108/BL­08­2020­0055.

7. Gartner Survey Shows 37 Percent of Organizations Have Implemented AI in Some Form. Режим доступа: https://www. gartner.com/en/newsroom/ press­releases/2019­01­21­ gartner­survey­shows–37­percent­of­organizations­have/ (дата обращения: 30.04.2022)

8. Indurkhya B. Is morality the last frontier for machines, New Ideas Psychol. — 2019. — vol. 54, Р. 107–111. Режим доступа: https://doi.org/10.1016/j.newideapsych.2018.12.001 (дата обращения: 27.04.2022).

9. Jobin A., Ienca M., Vayena E. The Global Landscape of AI Ethics Guidelines. Nature Machine Intelligence. — 2019. — 1(9), 389–399.

10.  Leonov V.A., Kashtanova E.V., Lobacheva A.S. Ethical aspects of the use of artificial intelligence in the social sphere and management environment. — 2022. — vol. 118., рр. 989–998. DOI:10.15405/epsbs.2021.04.02.118.

11.  Sinhaa N., Singhb P., Guptaa M., Singha P. Robotics at workplace: An integrated Twitter analytics — SEM based approach for behavioral intention to accept. International Journal of Information Management, 55 (2020) 102210. DOI: 10.1016/ j. ijinfomgt.2020.102210

12.  McKinsey, Потерянные рабочие места, приобретенные рабочие места: что будущее работы будет означать для рабочих мест, навыков и заработной платы. Режим доступа: https://www.mckinsey.com/featured-insights/future-of-work/ jobs-lost-jobs-gained-what-the-future-of-work-will-mean-forjobs-skills-and-wages# (дата обращения: 28.04.2022).

13.  McKinsey, Состояние  искусственного  интеллекта в 2020 году. Режим доступа: https://www.mckinsey.com/ business-functions/quantumblack/our-insights/global-surveythe-state-of-ai-in–2020 (дата обращения: 30.04.2022).

14.  Садовая Е.С. Цифровая экономика и новая парадигма рынка труда. World economy and international relations. — 2018. — vol. 62, № 12. — P. 35–45. DOI: 10.20542/01312227-2018-62-12-35-45.

Данные о правообладателе фото и видеоматериалов взяты с сайта «Сретенская духовная семинария», подробнее в Правилах сервиса
Анализ
×
Владимир Владимирович Путин
Последняя должность: Президент (Президент РФ)
1 698
Леонов Вадим
Каштанова Екатерина Викторовна
Леонов В. А.