Искусственный интеллект (ИИ) может обрабатывать большие объемы данных с высокой точностью, но может упустить важную внутреннюю функцию — альфа-канал, контролирующий прозрачность изображений. Исследователи из Техасского университета в Сан-Антонио разработали кибератаку AlphaDog, чтобы изучить уязвимости ИИ.
Атака заставляет людей видеть изображения иначе, чем машины, манипулируя прозрачностью. Исследователи создали 6500 изображений атак и протестировали их на 100 моделях ИИ. Они обнаружили, что AlphaDog может нарушать целостность изображений в различных сценариях, включая дорожные знаки и медицинские изображения.
Атака может привести к ошибочным диагнозам, угрозам безопасности дорожного движения и манипуляциям со страховыми выплатами. AlphaDog также может нарушить работу систем распознавания лиц.