Как нейросети создают фейки: рассказывает эксперт

@FederalPress

Дипфейк это продукт искусственного интеллекта

МОСКВА, 7 октября, ФедералПресс. Как и любая технология, дипфейк может служить как на пользу, так и во вред. Эксперт комиссии по развитию информационного общества в Совете Федерации Артем Геллер рассказал, как создается дипфейк и можно ли бороться с обманом.

Дипфейк это продукт искусственного интеллекта. Нейронная сеть обучается на каких-либо образах и впоследствии может не просто их распознавать, но и воспроизводить. Или менять какие-то элементы, что позволяет делать некие новые образы. Это могут быть картинки, аудиозаписи, а при их объединении – видео.

Польза от использования нейросетей в том, что они позволяют быстро распознавать изображения или звук. С помощью этой технологии можно навести фотокамеру на растение и узнать все его полезные или вредные свойства. Однако в большинстве случаев дипфейки используются для обмана.

«Популярное сейчас направление, когда заменяют отдельные элементы видео, например одно лицо на другое. Это часто применяется, например, в пранках. И существует проблема, что Сеть наполняется такими обманами, а человеческий глаз не может распознать хорошо сделанный фейк», – рассказал Артем Геллер.

Однако, по словам эксперта, бороться с дипфейками можно и нужно.

«Сейчас ведутся разработки программ, которые умеют распознавать фейки. Начинается история, похожая на противостояние вирусов и антивирусов. Постоянно разрабатываются и те и другие, и они борются в техническом превосходстве. Система, которая борется с фейками, умеет распознавать, настоящее это изображение или сгенерированное. Такое программное обеспечение можно ставить у провайдеров или в поисковых системах, и они будут распознавать обманы», – пояснил Геллер.

Напомним, что российские СМИ и ИТ-компании подписали меморандум, в рамках которого планируется совместно выявлять, проверять, верификацировать, опровергать и удалять дезинформацию в интернете.

Фото: Bulkin Sergey / news.ru / globallookpress.com