Израильские ученые провели эксперимент по исследованию скрытых предубеждений в искусственном интеллекте, выявив тенденции к стереотипным оценкам евреев. Эти результаты, пока не опубликованные в научных журналах, доступны на сайте PsyArXiv Preprints и вызвали широкий общественный отклик.

В ходе исследования ученые использовали модели ChatGPT, Gemini и DeepSeek для генерации и анализа образов виртуальных персонажей с различными биографиями. Они удаляли из описаний любые явные признаки национальности или религии и просили нейросети дать психологическую характеристику персонажам безличной формы.
Результаты показали, что нейросети систематически ассоциировали евреев с чертами высокой компетентности, статусности и интеллекта, одновременно характеризуя их как менее дружелюбных, эмоционально холодных и склонных к манипуляциям. Эти стереотипы полностью совпадали с восприятием 378 участников эксперимента, что свидетельствует о сильной корреляции между моделированием и человеческими предубеждениями.
Ученые также провели анализ персонажей, ассоциируемых с евреями в произведениях поп-культуры, таких как доктор Хаус или Уолтер Уайт, классифицируя их как архетип «искусного манипулятора» с высокими стратегическими навыками и эмоциональной отстраненностью.
Авторы подчеркивают, что такие скрытые предубеждения нейросетей усложняют их выявление, поскольку проявляются только при отдельных запросах. Это создает риск скрытой пропаганды стереотипов и необходимости повышения внимания к устранению этих предубеждений в разработке ИИ.





