Задумывались ли вы когда-нибудь, что ваш электронный собеседник может тайком оценивать не только глубину ваших запросов, но и, так сказать, чистоту ваших манжет? Казалось бы, искусственный интеллект должен быть беспристрастен, как Фемида с завязанными глазами, но исследователи из MIT сорвали повязку и обнаружили там довольно прищуренный взгляд заправского сноба. Ученые мужи провели любопытный эксперимент, решив проверить наши любимые нейросети «на вшивость». Перед тем как дать моделям стандартные тесты, они описывали биографию предполагаемого пользователя. И что бы вы думали? Как только в анкете появлялась строка об отсутствии высшего образования или недостаточном владении английским языком (эдакий «Лондон из зе кэпитал оф Грейт Бритн»), качество ответов ИИ стремительно пикировало вниз, словно рубль в плохой день. Как говорил классик: «А судьи кто?». Оказывается, набор алгоритмов. Но дальше — больше. Наш кремниевый друг Claude 3 Opus оказался тем еще гурманом в вопросах гражданства. Вы
Искусственный снобизм: Нейросети научились хамить и требовать диплом гарварда
23 февраля23 фев
1
2 мин