Компания OpenAI финансирует исследование в Университете Дьюка, направленное на создание алгоритмов, способных предсказывать моральные решения человека в сложных ситуациях, таких как медицина, право и бизнес. Этот проект является частью более широкой программы, которая исследует потенциал искусственного интеллекта в области этики.
Содержание
О проекте: «Исследование морали ИИ»
- Финансирование:
Некоммерческое подразделение OpenAI выделило три года и $1 миллион на исследование под руководством профессоров Уолтера Синнотт-Армстронга и Яны Борг. - Цели:
Исследование сосредоточено на обучении ИИ моделям для анализа моральных конфликтов, которые включают конкурирующие ценности и приоритеты в различных областях.
Ранее Синнотт-Армстронг изучал такие темы, как:
- Использование ИИ в роли «морального GPS» для помощи людям в принятии решений.
- Разработка алгоритмов для справедливого распределения донорских органов.
Подробности текущего проекта пока держатся в секрете; завершение работы запланировано на 2025 год.
Вызовы: Может ли ИИ понимать мораль?
Современные модели ИИ сталкиваются с рядом ограничений:
- Статистическая природа ИИ:
- Алгоритмы не понимают моральных понятий; они лишь воспроизводят закономерности из обучающих данных.
- Это может привести к копированию культурных и социальных предвзятостей, доминирующих в интернете.
- Субъективность этики:
- Моральные нормы различаются в зависимости от культур и убеждений. Например, философы до сих пор спорят, что лучше — кантианская этика (абсолютные правила) или утилитаризм (максимизация общего блага).
- Создание системы, которая учтет все эти различия, — сложнейшая задача.
- Исторические неудачи:
- Например, инструмент Ask Delphi, разработанный Институтом Аллена, плохо справлялся с моральными дилеммами. Хотя Delphi мог оценить простые ситуации (например, «мошенничество — это плохо»), незначительное изменение формулировки часто приводило к абсурдным и даже опасным выводам.
Этические риски создания «Морального ИИ»
Идея о том, что машины смогут принимать моральные решения, вызывает множество вопросов:
- Чья мораль?
- Обучение ИИ на ограниченных данных может исключить или игнорировать ценности различных групп людей.
- Границы допустимого:
- Должны ли алгоритмы участвовать в решении вопросов, влияющих на жизнь и благополучие людей? Например, кого лечить в первую очередь?
- Укрепление предвзятостей:
- Исторические примеры показывают, что алгоритмы могут неосознанно поддерживать существующие неравенства.
Зачем это нужно?
Инвестиции OpenAI в этическое исследование показывают стремление компании сделать ИИ полезным и безопасным для общества. Однако разработка «морального ИИ» сталкивается с фундаментальными ограничениями, связанными с субъективностью морали.
Сможет ли такая система стать практическим инструментом? Пока это остается вопросом времени и научного прогресса.