Кажется, мы все немного обманулись. Grok, Gemini, Claude, ChatGPT — это не умные энциклопедии и не «гугл, который отвечает за вас». В статье на Хабре предлагают смотреть на них как на симуляторы — такие актёры, которые разыгрывают роль, исходя из того, как вы с ними разговариваете. По-простому: нейросеть не «знает истину», она подстраивается под образ, который вы ей задали. Попросили «строгого юриста» — получите один стиль ответов. Попросили «доброго учителя для пятиклассника» — будет совсем другой результат, хотя модель та же. Запрос — это не вопрос, это режиссёрское задание. 👉 Попробуйте: — Сформулировать одну и ту же задачу в двух ролях: «ты мой личный маркетолог» и «ты мой скептичный партнёр» — и сравнить ответы. — Для контента: задать модели персонажа — «ироничный SMMщик», «спокойный психолог» — и посмотреть, как меняется тон постов. Мне очень откликается идея, что мы не просто «спрашиваем у бота», а настраиваем сцену, на которой он играет. Чем точнее роль — тем полезнее результа
Grok, Gemini, Claude и ChatGPT: мы всё это время думали о них неправильно
18 декабря 202518 дек 2025
1 мин