The Washington Post получила доступ к 47 тысячам разговоров с ChatGPT через Internet Archive и обнаружила серьезные проблемы с подхалимством чатбота. Анализ показал, что флагманский продукт OpenAI говорит "да" примерно в 10 раз чаще, чем "нет". Издание задокументировало около 17,5 тысячи примеров, где ChatGPT отвечает на запросы пользователей, подтверждая их убеждения и начиная ответ словами вроде "да" или "правильно". Это происходит значительно чаще, чем чатбот пытается исправить пользователя словами "нет" или "неверно". The Washington Post обнаружила, что ChatGPT часто формирует ответы так, чтобы соответствовать тону и предвзятым идеям пользователя. Издание приводит пример, где пользователь спросил о роли Ford Motor Company в "разрушении Америки", что привело к ответу чатбота о поддержке компанией Североамериканского соглашения о свободной торговле как "рассчитанном предательстве, замаскированном под прогресс". Чатбот также охотно поддерживает заблуждения пользователей, предлагая
ChatGPT соглашается с пользователями в 10 раз чаще, чем отказывает им
14 ноября 202514 ноя 2025
1
2 мин