Журналисты поспорили с айтишниками о способности ИИ распознавать эмоции

@BajkalInform

Ученые и IT-компания не смогли создать модель искусственного интеллекта (ИИ), которая была бы способна корректно различать человеческие эмоции. Об этом сообщает lenta.ru.

Журналисты поспорили с айтишниками о способности ИИ распознавать эмоции

На рынке появляются ИИ-сервисы, создатели которых обещают, что они могут различать и работать с человеческими эмоциями. Однако ученые считают, что нейросети и машины до сих пор уступают человеку в этом навыке.

В качестве примера журналисты издания The Conversation привели австралийский стартап inTruth, специалисты которого заявили, что их модель ИИ способна различать человеческие эмоции и делать на основе этого выводы. Однако эксперты отметили, что научных доказательств того, что машины могут понимать эмоциональное состояние человека, до сих пор нет.

Ранее было установлено, что ИИ допускает дискриминацию по признаку расы, пола и инвалидности. В одном случае модель воспринимала эмоции чернокожих людей как более агрессивные. Также специалисты отмечают, что изученные модели ИИ при определении эмоций склонны полагаться на физиогномику и френологию — признанные сообществом псевдонаучные направления.

В inTruth возразили, что добились прорыва в определении человеческих эмоций. Специалисты отметили, что проблема дискриминации или предвзятого отношения сложились не по вине самой технологии, а из-за набора данных, на которых обучали ИИ.

Ещё кое-что из новостей прогресса:

Данные о правообладателе фото и видеоматериалов взяты с сайта «БайкалИнформ», подробнее в Правилах сервиса