Как технологии меняют мир и что нас ждёт впереди.
В 2014 году британский философ Ник Бостром выпустил книгу « Суперинтеллект: пути, опасности, стратегии », где предупредил, что системы искусственного интеллекта, способные превзойти человеческие возможности, могут представлять угрозу для человечества. Его идеи вызвали широкий резонанс, особенно среди учёных и технологических компаний. Спустя десятилетие глава OpenAI Сэм Альтман утверждает, что суперинтеллект может появиться всего через «несколько тысяч дней» — это около десяти лет. Год назад его сооснователь Илья Суцкевер даже организовал в компании команду для работы над проектом безопасного суперинтеллекта, а теперь он и его коллеги привлекли миллиард долларов для создания нового стартапа с той же целью.
Понятие «суперинтеллект» обозначает любые системы ИИ, которые превосходят уровень интеллекта человека. Однако определения разнятся. Мередит Рингел Моррис из Google предложила классификацию шести уровней развития ИИ: от систем, не обладающих интеллектом, до «сверхчеловеческих». Также выделяются узкие и общие системы ИИ. Узкие, такие как калькулятор, работают в ограниченных областях, выполняя строго запрограммированные задачи. В то же время общие системы более универсальны и могут осваивать новые навыки. Примером узкого ИИ высокого уровня является шахматная программа Deep Blue, обыгравшая Гарри Каспарова в 1997 году. Современная система AlphaFold , предсказывающая структуру белков, также демонстрирует суперчеловеческие навыки и удостоилась Нобелевской премии по химии.
Общие системы ИИ — это ещё одно важное направление. Они способны решать более широкий круг задач, в том числе адаптироваться к новым условиям. Тем не менее, их возможности пока ограничены: языковые модели, такие как ChatGPT, оцениваются как «начальный уровень» общих систем. По словам Моррис, эти модели могут выполнять задачи на уровне малоопытного человека, но ещё далеки от компетентного уровня, которым обладает, например, квалифицированный взрослый человек.
Технологические компании активно вкладываются в разработку ИИ. Сотни миллиардов долларов идут на покупку оборудования и развитие технологий, что даёт основания ожидать дальнейшего прогресса. Однако исследования показывают, что существующие языковые модели, как, например, последняя версия o1 от OpenAI, хоть и демонстрируют сложные умения в некоторых областях, таких как логическое мышление, всё ещё не справляются с более сложными задачами. Учёные предполагают, что эти модели остаются скорее мощными инструментами для поиска закономерностей, чем полноценными системами, способными к глубокой аналитике.
Основные достижения ИИ последних лет связаны с применением методов глубокого обучения, позволяющих находить связи в обширных наборах данных. Некоторые из этих алгоритмов, разработанные ещё в 1980-х, привели к получению Нобелевской премии в области физики в 2024 году Джоном Хопфилдом и Джеффри Хинтоном. В таких системах значительное улучшение достигается за счёт увеличения объёмов данных, однако ресурсов может не хватить на дальнейшее развитие. Исследователи работают над эффективным использованием данных, созданием синтетических данных и переходом навыков между разными задачами, чтобы найти обходные пути.
Многие эксперты указывают, что для создания настоящего суперинтеллекта необходимо разрабатывать «открытые системы» — такие, которые могут генерировать новые знания и обучаться на основе новых данных. Современные модели ИИ не обладают этой открытостью: они обучаются на заранее подготовленных данных и применяются в узких задачах.
Тем не менее, развитие ИИ несёт и риски. Пока автономия ИИ-систем невелика, их влияние ограничено: они помогают в анализе информации или составлении рекомендаций, как это делает ChatGPT. Но по мере увеличения их автономии возрастает риск ошибок и переоценки их способностей, что может привести к чрезмерному доверию. В долгосрочной перспективе автономные ИИ-системы могут начать заменять человеческий труд, создавать искусственные отношения и даже привести к общему упадку интереса к жизни.
Если однажды будет создан полноценный суперинтеллект, его автономия может вызвать опасения в том, что система способна выйти из-под контроля. Однако в ИИ-сообществе придерживаются мнения, что безопасность суперинтеллекта возможна, если внедрить механизмы для человеческого контроля. Разработка такого ИИ требует комплексного подхода и объединения специалистов из разных областей.