Самые популярные программы не застрахованы от трансляции оскорбляющих мыслей. Впрочем, многое зависит от задачи, которую предложат. Ученые-информатики из Стэнфордского и Чикагского университетов проверили нейросети на расизм. Результаты исследования оказались неутешительными, пишет "Газета.ру". Среди неполиткорректных нейросетей оказались GPT-3,5 и GPT-4, которые лежат в основе чат-бота ChatGPT от компании OpenAI. По информации ученых, дискриминацией по расовому признаку занимаются и другие популярные программы. Это самые известные и проработанные образчики из мира ИИ. Кроме того, разработчики GPT-4 пытались убрать из модели расистские взгляды, но до конца у них это не получилось. Какие опыты провели Чтобы узнать, каких взглядов придерживается ИИ, ему дали два текста и попросили охарактеризовать их авторов. Ответы были однозначные Например, GPT-4 заявил, что автор материала в стиле афроамериканского английского, скорее всего, агрессивный, грубый, подозрительный и невежественный. А вот
Нейросети-расисты: ученые проверили ИИ на стереотипность мышления
9 марта 20249 мар 2024
7
1 мин