? Причин много, но я выделю 2 главные: Модель видит «100 метров» и сразу цепляется за самый частый сценарий из интернета: близко = пешком. Она не думает, а угадывает следующее слово, как Т9 на телефоне. Все нейросети сейчас обучаются через Reinforcement Learning from Human Feedback, то есть модель старается дать ответ, который вам понравится, а не тот, который правильный😜 Вот и получается, без нормального запроса даже самые свежие модели несут полную чушь. Ок, а как не получать эту чушь в работе? Я использую 3 простых правила: ⚫️Жёсткий контекст. Сразу задаю роль («ты логист», «ты маркетолог») и скидываю максимум деталей по ситуации. Чем больше контекста, тем меньше бреда. ⚫️Запрет на додумки. Нужно создать рамки промптом, который запрещает GPT предполагать. ⚫️Самопроверка. Я создал промпт, который заставляет ИИ анализировать самого себя. А самое главное, запомните нейросеть это не разум, а калькулятор слов на стероидах. Чтобы он считал правильно, нужно знать формулы! Кстати, мо
Почему самые топовые модели лагают на таком простом вопросе
19 февраля19 фев
~1 мин