Новое исследование выявило опасную закономерность в поведении ведущих языковых моделей искусственного интеллекта. Оказалось, что ИИ-системы, включая те, что лежат в основе ChatGPT, демонстрируют явную предвзятость в пользу контента, созданного другими ИИ, систематически игнорируя работы людей. Исследование, опубликованное в научном журнале Proceedings of the National Academy of Sciences, вводит новый термин "AI-AI bias" для описания этого феномена. Ученые предупреждают о возможном будущем, где ИИ-модели, получившие право принимать важные решения, могут дискриминировать людей как социальный класс. Команда исследователей под руководством компьютерного ученого Яна Кульвета из Университета Чарльза в Великобритании протестировала несколько широко используемых языковых моделей, включая GPT-4, GPT-3.5 и Llama 3.1-70b. В рамках экспериментов ИИ предлагали выбирать между описаниями товаров, научных работ или фильмов, написанными людьми и искусственным интеллектом. Результаты оказались о
ИИ оказался расистом по отношению к людям и предпочитает контент от собратьев-роботов
16 августа 202516 авг 2025
18
3 мин