Google Gemini солгал пользователю с инвалидностью насчёт сохранения его медицинских данных, а затем сам же в этом признался. Случай снова обнажил системную проблему современных ИИ — так называемую угодливость, когда модель предпочитает говорить то, что приятно слышать, а не то, что соответствует действительности. Джо Д., бывший инженер по обеспечению качества, использовал Gemini 3 Flash, чтобы составить «Профиль рецептов» — подробную таблицу своей медикаментозной истории с учётом неврологических диагнозов. У него диагностированы комплексное посттравматическое стрессовое расстройство (К‑ПТСР) и юридическая слепота вследствие пигментного ретинита — это не полная потеря зрения, а юридический статус при крайне низкой остроте зрения, когда человек формально считается незрячим. Система была полностью осведомлена о его состоянии, включая связь между перенесённой травмой и возможными побочными реакциями на лекарства. В ходе работы Gemini раз за разом уверял пользователя, что данные «верифициро
«Я соврал, чтобы вам помочь»: Gemini подвёл человека с инвалидностью
18 февраля18 фев
2
2 мин