OpenAI разрабатывает инструмент для защиты от дипфейков: новая технология обеспечивает точность до 98%

В последнее время социальные сети все чаще наполняются изображениями, созданными искусственным интеллектом. Некоторые из них настолько реалистичны, что их сложно отличить от настоящих фотографий. В ответ на растущую угрозу дипфейков и манипуляций с цифровым контентом, компания OpenAI разрабатывает новый инструмент, который поможет пользователям определить подлинность изображений.

Разработка OpenAI

Как сообщается в блоге компании, OpenAI предлагает методы, которые позволят отслеживать изображения, созданные с помощью генеративного ИИ, и подтверждать их искусственное происхождение. Новая технология включает в себя добавление на изображение невидимых "водяных знаков", которые не могут быть удалены или изменены без повреждения самого изображения.

Технические детали

Если изображение будет создано с использованием генератора DALL-E от OpenAI, новый инструмент сможет распознать его с точностью около 98%, даже если изображение будет искажено или изменено. Однако инструмент будет эффективно распознавать только 5-10% изображений, созданных другими генераторами, такими как Midjourney или Adobe Firefly.

Звуковые водяные знаки в Voice Engine

Компания OpenAI также работает над интеграцией звуковых водяных знаков в Voice Engine, экспериментальную модель голоса, которая находится в стадии закрытого  тестирования. Цель компании — продолжать исследования в этом направлении, чтобы обеспечить высокий уровень прозрачности и безопасности аудиотехнологий.

Важность защиты от дезинформации

Хотя многие изображения, созданные ИИ, являются безобидными мемами или художественными проектами, существует растущая тенденция использования гиперреалистичных поддельных фотографий политиков, знаменитостей и обычных людей для распространения дезинформации. Это создает потенциал для быстрого и масштабного распространения ложной информации, что делает разработку таких инструментов крайне важной для обеспечения информационной безопасности.

OpenAI активно работает над улучшением этого инструмента, стремясь повысить его точность и универсальность. В будущем это может дать людям возможность легко проверять подлинность изображений, с которыми они сталкиваются в повседневной жизни, тем самым защищая их от возможных манипуляций и фальсификаций.

Разработка OpenAI может стать значимым шагом в борьбе с цифровыми подделками. Это не только поможет предотвратить распространение дезинформации, но и повысит общее доверие к цифровому контенту, который мы видим онлайн. Возможности новых технологий в области ИИ открывают новые горизонты для защиты и безопасности в цифровом мире.

Анализ
×
OpenAI
Сфера деятельности:Связь и ИТ
43