Современные языковые модели, даже самые продвинутые, по-прежнему остаются "чёрными ящиками". Несмотря на внешнюю логичность, внутренние механизмы их мышления зачастую лишены прозрачности. Чтобы хоть как-то реконструировать процесс вывода, инженеры опираются на метод цепочек рассуждений (chain-of-thought) – промежуточные этапы, в которых модель якобы объясняет своё решение. Однако, как сообщает The Information, всё больше систем начинают отказываться от этой логической линии, заменяя её на бессмысленные и трудночитаемые языковые конструкции. Показателен случай с моделью R1 от DeepSeek. Ей предложили решить задачу по химии, и она выдала правильный ответ, но с объяснением, в котором перемешаны реальные термины, искажённые конструкции и случайные вставки: "(Dimethyl(oxo)-lambda6-sulfa雰囲idine)methane donate a CH2rola group…" Завершение рассуждения: "Frederick would have 10 +1 =11 carbons. So answer is 11." На удивление, ответ оказался верным. Но разобраться, как именно ИИ пришёл к решению,
В течение года в цепочке рассуждений ИИ утратится возможность проследить ход сделанного вывода
27 июня 202527 июн 2025
125
2 мин