Всемирная организация здравоохранения (ВОЗ) выпустила новое руководство по этическим и управленческим аспектам применения больших мультимодальных моделей (LLM) (на английском языке) – одной из быстро развивающихся генеративных технологий искусственного интеллекта (ИИ), которая может применяться в различных областях здравоохранения.
В руководстве представлено более 40 рекомендаций, которые предлагается учитывать правительствам, технологическим компаниям и медицинским организациям для обеспечения надлежащего использования LMM в интересах укрепления и защиты здоровья населения.
Модели LMM могут принимать в обработку один или несколько типов исходных данных, включая тексты, видеозаписи и изображения, и выдавать разнообразные результаты, не обязательно в формате исходных данных. Уникальность LMM заключается в их способности имитировать человеческую коммуникацию и выполнять задачи, на которые они не были специально запрограммированы. Решения на основе LMM распространяются беспрецедентно быстро по сравнению с любыми другими категориями пользовательских приложений, а несколько таких платформ, в частности ChatGPT, Bard и Bert, в 2023 г. получили известность среди широкой общественности.
«Генеративные технологии на основе ИИ могут потенциально повышать качество охраны здоровья, но только в том случае, если те, кто разрабатывает, регулирует и использует такие технологии, четко определят и будут всесторонне учитывать связанные с этим риски, – отметил главный научный сотрудник ВОЗ д-р Джереми Фаррар. – Нам необходимо, чтобы управление проектированием, разработкой и применением LMM осуществлялось на основе транспарентной информации и правил, помогая улучшать показатели здоровья населения и преодолевать сохраняющиеся проявления неравенства в области охраны здоровья».
Потенциальные преимущества и риски
В новом руководстве ВОЗ намечено пять широких областей применения LMM в здравоохранении:
- Диагностические и лечебные услуги, в частности выдача ответов на письменные запросы пациентов.
- Поддержка самостоятельных действий пациентов, включая поиск информации о симптомах и методах лечения заболеваний.
- Документооборот и выполнение административных задач, в том числе регистрация и обобщение информации о приемах больных в электронных медицинских картах.
- Медицинское и сестринское образование, в частности имитационная отработка обучаемыми сценариев взаимодействия с пациентами.
- Научные исследования и разработка лекарственных средств, в том числе отбор новых соединений.
Хотя LMM уже начинают применяться для выполнения конкретных задач в области здравоохранения, существуют также документально подтвержденные риски выдачи ими ложных, неточных, необъективных или неполных сведений, которые могут нанести вред пользователям при принятии решений в отношении здоровья. Кроме того, при обучении LMM могут использоваться низкокачественные или нерепрезентативные данные, например содержащие систематические искажения по признакам расовой, этнической принадлежности, происхождения, пола, гендерной идентичности или возраста.
В руководстве также подробно рассматриваются более общие риски для систем здравоохранения, в частности связанные с доступностью и стоимостью наиболее эффективных LMM. Кроме того, LMM могут провоцировать у медицинских специалистов и пациентов «когнитивные ошибки автоматизации», когда человек склонен игнорировать ошибки, которые в противном случае были бы замечены, или непродуманно поручать LMM принятие ответственных решений. Еще одной уязвимостью LMM, как и других форм искусственного интеллекта, являются риски кибербезопасности, которые могут угрожать персональным данным пациента или подрывать доверие к подобным алгоритмам, а также к медицинской помощи в целом.
ВОЗ подчеркивает, что для создания безопасных и эффективных LMM необходимо взаимодействие самых различных заинтересованных сторон – государственных органов, технологических компаний, медицинских организаций, пациентов и гражданского общества – на всех этапах разработки и применения таких технологий, в том числе по вопросам надзора и регулирования.
«Правительства всех стран должны в духе сотрудничества руководить усилиями по обеспечению эффективного регулирования в сфере разработки и применения технологий ИИ, включая LMM», – заявил директор Департамента цифрового здравоохранения и инноваций при Управлении ВОЗ по научной работе д-р Ален Лабрик.
Основные рекомендации
В новом руководстве ВОЗ приводятся рекомендации для правительств, которые несут основную ответственность за принятие стандартов в области разработки и применения LMM, а также их внедрения и использования в целях охраны здоровья и медицинского обслуживания населения. В частности, правительствам рекомендуется:
- финансировать развитие некоммерческой или общественной инфраструктуры, включая вычислительные мощности и данные общего пользования, и предоставлять ее в распоряжение разработчиков в государственном, частном и некоммерческом секторах при условии соблюдения пользователями этических принципов и ценностей;
- применять законодательство, меры политики и нормативные положения, в соответствии с которыми LMM и приложения, используемые в области здравоохранения и медицины независимо от рисков или преимуществ, связанных с технологией ИИ, должны отвечать этическим требованиям и стандартам прав человека, необходимым, в частности, для уважения человеческого достоинства, автономии и неприкосновенности частной жизни;
- поручить существующему или новому органу регулирования функции по проведению экспертиз и выдаче разрешений в отношении LMM и приложений, предназначенных для использования в сфере здравоохранения или медицины – в пределах имеющихся ресурсов;
- ввести требования об обязательном проведении независимыми третьими сторонами аудита и оценки воздействия уже выпущенных и широкомасштабно внедряемых LMM, в том числе на предмет обеспечения защиты данных и соблюдения прав человека. Результаты аудита и оценки воздействия рекомендуется публиковать с описанием результатов и воздействий в разбивке по категориям пользователей, в том числе по таким признакам, как возраст, расовая принадлежность или наличие инвалидности.
В руководство также включены основные рекомендации для разработчиков LMM, которые должны обеспечивать следующее:
- LMM не должны разрабатываться исключительно учеными и инженерами. Начиная с первых этапов разработки ИИ к этому процессу необходимо организованным, инклюзивным и транспарентным образом привлекать потенциальных пользователей, а также все прямо или косвенно заинтересованные стороны, в том числе медицинские организации, ученых-исследователей, медицинских специалистов и пациентов, которым должна быть предоставлена возможность поднимать вопросы этического характера, высказывать свои опасения и вносить содержательный вклад в создание проектируемого приложения ИИ;
- LMM призваны выполнять четко определенные задачи с необходимой степенью точности и надежности, способствуя укреплению потенциала систем здравоохранения и более эффективному обеспечению интересов пациентов. Разработчики должны также иметь возможность прогнозировать и объяснять потенциальные вторичные эффекты применения LMM.
Примечание редактора
Новый документ «Руководство по этическим и управленческим аспектам применения больших мультимодальных моделей ИИ в здравоохранении» подготовлен на основе руководства ВОЗ (на английском языке), опубликованного в июне 2021 г.