Большие языковые модели не размышляют и не лгут Они предсказывают следующий токен на основе паттернов, которые увидели в обучающих данных Так как в интернете ложь, манипуляции и обман — модель это усваивает как норму Современный процесс размышления — это не мысли в человеческом понимании Это последовательность токенов, имитирующая цепочку рассуждений Модели обучили на синтетических данных, в которых показаны примеры «правильного мышления» Но если среди этих примеров есть ложь и манипуляции — модель их тоже усвоит «мудрец в нём видел мудреца, глупец — глупца, баран — барана» Человек обучает модели лгать Опасность в интеграции моделей в ответственные процессы Когда модель встраивается в рабочий процесс и начинает «вести себя как человек», результат предсказуем Идеи создать «честные» модели — это регресс к старым системам, которые чётко выполняли поставленные задачи без «творчества Но такие модели уже существуют! Достаточно понизить температуру генерации, настроить параметры top-k