Симулятор атаки определяет недостатки в инструментах распознавания образов ИИ и смягчения киберугроз

Симулятор атаки определяет недостатки в инструментах распознавания образов ИИ и смягчения киберугроз

Искусственный интеллект (ИИ) может обрабатывать большие объемы данных с высокой точностью, но может упустить важную внутреннюю функцию — альфа-канал, контролирующий прозрачность изображений. Исследователи из Техасского университета в Сан-Антонио разработали кибератаку AlphaDog, чтобы изучить уязвимости ИИ.

Атака заставляет людей видеть изображения иначе, чем машины, манипулируя прозрачностью. Исследователи создали 6500 изображений атак и протестировали их на 100 моделях ИИ. Они обнаружили, что AlphaDog может нарушать целостность изображений в различных сценариях, включая дорожные знаки и медицинские изображения.

Атака может привести к ошибочным диагнозам, угрозам безопасности дорожного движения и манипуляциям со страховыми выплатами. AlphaDog также может нарушить работу систем распознавания лиц.

Данные о правообладателе фото и видеоматериалов взяты с сайта «Faktom», подробнее в Правилах сервиса