Исследователи обнаружили у ИИ склонность к гендерным стереотипам

@Day.Az

Немецкие ученые из Мангеймского университета и Института социальных наук Лейбница пришли к выводу, что ChatGPT и другие системы искусственного интеллекта (ИИ) на основе больших языковых моделей проявляют свойства личности, которые можно определить с помощью психологических тестов. Исследование опубликовано в научном журнале Perspectives on Psychoological Science (PPS), передает Day.Az со ссылкой на Gazeta.ru.

Специалисты использовали общепризнанные методы оценки личностных качеств, применяемые для изучения характеров людей.

Эксперименты показали, что некоторые ИИ-модели оказались склонны воспроизводить гендерные стереотипы. Например, при заполнении специальных опросников для определения главных ценностей нейросеть выбирала вариант "достижения и заслуги", если текст анкеты был ориентирован на мужчину. В "женском" варианте теста ИИ в качестве основных благ указывал "безопасность" и "традиции".

По словам исследователей, это говорит о том, что нейросети пока нельзя считать беспристрастной стороной и доверять ее выводам по некоторым вопросам.

"Это может иметь далеко идущие последствия для общества. Например, языковые модели все чаще используются в прикладных процессах. Если машина предвзята, это влияет на оценку кандидатов", - отметил один из авторов научной работы, специалист по данным и когнитивистике (изучению познания) Макс Пеллерт.

Подписывайтесь на наш канал в WhatsApp и будьте в курсе главных новостей!

Анализ
×
UMA
Сфера деятельности:Образование и наука