Многие, кто активно пользуются ChatGPT или другими LLM, замечали одно и то же: если задача редкая, узкоспециализированная или про что-то слабо описанное в интернете, нейросеть начинает «галлюцинировать». Она придумывает несуществующие методы, API или даёт советы, которые в реальности не работают. Это не баг, а закономерность. LLM обучены на огромных массивах текста, и если нужного контекста нет, они просто начинают достраивать пробелы фантазией. Простой трюк, который работает В моём случае задача была настолько специфичная, что найти готовое решение в интернете не получилось. Я решил дать ChatGPT документацию в качестве контекста. Результат меня удивил: ИИ перестал галлюцинировать и сразу написал рабочий код. На самом деле это объясняется просто: LLM умеют прекрасно анализировать текст и делать выводы на его основе, но не всегда имеют нужный источник знаний под рукой. Добавив документацию, я дал ей «собственную обучающую выборку» прямо во время диалога. Немного статистики По данным St
ChatGPT реально ТУПОЙ… пока ты не сделаешь ЭТО
23 августа 202523 авг 2025
1 мин