Специалисты Лаборатории квантовой обработки информации Центра фотоники и квантовых материалов совместно с группой суперкомпьютерных вычислений Центра по научным и инженерным вычислительным технологиям (CDISE), разработавшей суперкомпьютер «Жорес», создали эмуляцию вычислений на квантовом процессоре Google. Суперкомпьютер воспроизводил данные без характерных ошибок, связанных с реализацией физических экспериментов, но со статистическим распределением, аналогичным тем, которые были продемонстрированы в ходе недавних экспериментов Google.
В своем численном эксперименте группа сумела указать на определенный скрывающийся в результатах Google эффект, получивший название «дефицит достижимости» и описанный ранее командой ученых из Сколтеха. Полученные числовые значения подтверждают, что данные Google находятся на грани так называемой лавины, при попадании в которую решения задачи с заданными ресурсами достичь невозможно. Специалисты Сколтеха выявили единственный необходимый и достаточный критерий, позволяющий предсказать попадание в лавину, называемый «плотностью» переменных. При плотности, характерной для практических задач, решение потребует значительно больше квантовых ресурсов для выполнения квантовой приближенной оптимизации. Результаты были опубликованы в ведущем отраслевом журнале Quantum.
С самого начала эпохи численных вычислений наибольшую сложность для эмуляции представляли квантовые системы, хотя конкретные причины этого феномена остаются предметом исследований. Однако эта сложность, связанная с эмуляцией квантовой системы на классическом компьютере, сподвигла некоторых ученых изменить свои подходы.
В начале 1980-х гг. такие ученые, как Ричард Фейнман и Юрий Манин, выдвинули предположение, что те неизвестные компоненты, отсутствие которых затрудняет эмуляцию квантовой системы на классическом компьютере, могут в свою очередь быть использованы как вычислительный ресурс. Например, квантовый процессор будет отлично подходить для моделирования квантовых систем, поскольку его работа основывается на тех же принципах.
Эти ранние идеи подтолкнули Google и других технологических гигантов к созданию первых прототипов долгожданных квантовых процессоров. Существующие сегодня версии этих устройств подвержены ошибкам и могут выполнять только простейшие квантовые программы, при этом каждое вычисление должно повторяться несколько раз, чтобы путем усреднения исключались ошибки и формировались приближенные величины.
Одной из наиболее исследуемых областей применения современных квантовых процессоров является квантовый приближенный алгоритм оптимизации (QAOA). В ходе ряда впечатляющих экспериментов специалисты Google использовали свой квантовый процессор для оценки возможностей квантовых вычислений. Для этого была написана программа QAOA, использующая 23 кубита квантового процессора Google Sycamore и три временных шага по настройке параметров оптимизации.
По сути, QAOA представляет собой подход к решению задачи оптимизации функции многих переменных посредством аппроксимации на гибридной системе, состоящей из классического компьютера и квантового сопроцессора. В настоящее время прототипы квантовых процессоров, такие как Google Sycamore, обладают весьма ограниченным потенциалом, так как каждая операция вносит неточность из-за физических шумов в устройстве. Ожидается, что гибридные системы позволят преодолеть некоторые из этих систематических ограничений и в полной мере воспользоваться преимуществами квантовых компьютеров, что повышает привлекательность таких подходов, как QAOA.
Недавно ученые из Сколтеха сделали ряд открытий в отношении QAOA. Вы можете ознакомиться с подробной информацией о них здесь. Среди них особенно выделяется эффект, который принципиально ограничивает применимость QAOA. Согласно результатам, плотность переменных в задаче оптимизации, то есть соотношение соответствующих ограничений и переменных, является основным фактором, препятствующим получению приближенных решений. Чтобы преодолеть эти ограничения производительности, требуются дополнительные ресурсы, то есть дополнительные операции, выполняемые на квантовом сопроцессоре. Эти открытия были сделаны в теории с использованием численных экспериментов ограниченного объема. Ученые хотели проверить, возникал ли выявленный ранее эффект в недавнем исследовании Google.
Специалисты лаборатории квантовых алгоритмов Сколтеха обратились к группе суперкомпьютерных вычислений в центре CDISE, которую возглавляет Олег Панарин, с просьбой предоставить вычислительные мощности для эмуляции квантового чипа Google. Старший научный сотрудник Лаборатории квантовой обработки информации Игорь Захаров совместно с коллегами приступил к модернизации существующего программного обеспечения, что позволило бы выполнять на суперкомпьютере «Жорес» параллельные вычисления. Спустя несколько месяцев группа смогла создать эмуляцию, которая выводила данные с тем же статистическим распределением, что и у Google, и продемонстрировать диапазон реализации численных экспериментов с различной плотностью переменных, при которых производительность QAOA резко снижается. Они также обнаружили, что данные Google располагаются на границе этого диапазона, в его пределах текущий уровень развития квантовых компьютеров не позволяет получить какие-либо преимущества.
Сначала команда из Сколтеха определила, что дефициты достижимости (ограничения производительности, вызванные определенным значением плотности, то есть соотношением ограничений и переменных в задаче), наблюдались в отношении так называемой задачи максимального удовлетворения ограничений. В Google решали иную, но смежную задачу по функции минимизации энергии графа. Поскольку эти задачи относились к одному классу сложности, группа сделала предположение, что сами задачи, а следовательно, и эффекты могут быть взаимосвязаны. Это предположение оказалось верным. Были собраны данные, и результаты отчетливо продемонстрировали, что дефициты достижимости создают лавинный эффект и данные Google находятся на той тонкой грани, после которой потребуются более мощные и длинные цепи QAOA, которые не могут быть реализованы на квантовом процессоре Google Sycamore.