Ты наверняка видел это вживую: ИИ-ассистент бодро отвечает на первый вопрос, а потом как будто забывает, что вы уже пять минут общаетесь. Ты ему: «Мне подешевле». Он тебе: «Конечно! Вот вариант на 30% дороже, зато с красивыми стыковками». Спасибо, робот, очень помог. Исследователи из Google говорят: проблема не в том, что модели плохо знают мир. Проблема в том, что они плохо обновляют свои убеждения, когда поступают новые факты. Один раз догадался — и дальше живёт с этой догадкой, даже если ты аккуратно намекаешь, что он промахнулся. Представь помощника для бронирования билетов. Он должен за несколько шагов понять, что тебе важнее: цена, время в пути, количество пересадок. И корректировать свои предположения по твоим выборам. Проверили несколько популярных моделей — и увидели неприятное: после первого взаимодействия улучшение почти исчезает. Модель сделала одну догадку в начале — и дальше держится за неё, как коллега, который услышал тебя в коридоре одним ухом и потом уверенно делает