Добавить в корзинуПозвонить
Найти в Дзене
ГастроПуть

3 промпта, после которых ChatGPT перестаёт выдумывать маршруты

В 9 из 10 маршрутов от ChatGPT — хотя бы одна выдумка: закрытый ресторан, неверная цена, место, которого нет на карте. Я перебрал двадцать формулировок и оставил три — после них модель перестаёт врать и начинает работать. (248 символов)
В прошлый раз я попросил ChatGPT найти лучшую корюшку в Петербурге. Ответ пришёл за три секунды — уверенный, подробный, с адресами. Пять ресторанов. Два из них не
Оглавление

ChatGPT врёт про отели и рестораны. Вот 3 промпта, чтобы это прекратить
ChatGPT врёт про отели и рестораны. Вот 3 промпта, чтобы это прекратить

В 9 из 10 маршрутов от ChatGPT — хотя бы одна выдумка: закрытый ресторан, неверная цена, место, которого нет на карте. Я перебрал двадцать формулировок и оставил три — после них модель перестаёт врать и начинает работать. (248 символов)

Проблема не в модели. Проблема в запросе

В прошлый раз я попросил ChatGPT найти лучшую корюшку в Петербурге. Ответ пришёл за три секунды — уверенный, подробный, с адресами. Пять ресторанов. Два из них не существовали. Один закрылся. Один подавал корюшку только в мае за четыре тысячи рублей. Совпало — одно место из пяти.

С тех пор я ChatGPT не верю. Но продолжаю пользоваться.

Потому что проблема не в модели. Проблема в том, как мы с ней разговариваем.

Нейросеть не ошибается. Она отвечает на тот вопрос, который ты задал. Даже если вопрос плохой.

Стандартный запрос — «составь маршрут по Грузии на 7 дней» — это приглашение к выдумке. Модель не знает, кто ты, сколько готов потратить, ходишь ли пешком или ездишь на такси. Она заполняет пустоты. Всегда. Потому что ты их оставил.

ChatGPT не врёт. Он достраивает реальность там, где ты оставил пустоту.

Чем проще запрос — тем больше выдумки в ответе.

Это не мнение. Это статистика.

Масштаб проблемы — в цифрах

Британское агентство SEO Travel в 2024 году попросило ChatGPT составить по десять двухдневных маршрутов для каждого из десяти городов — Лондон, Париж, Рим, Мадрид, Барселона, Амстердам, Берлин, Нью-Йорк, Дубай, Токио. Получилось сто маршрутов. Исследователи проверили каждый пункт.

В 9 из 10 маршрутов — ошибка. Минимум одна.

Каждый четвёртый — рекомендовал ресторан, которого уже нет. Больше половины предлагали посетить место за пределами его часов работы. Каждый четвёртый требовал от путешественника бессмысленный крюк — 19 километров на завтрак в Дубае. Некоторые маршруты включали места, которых не существует.

И это не устаревшее исследование. В марте 2026 года компания InsureMyTrip протестировала три модели — ChatGPT, Gemini и AI Mode — на более сложной задаче: неделя в Швейцарии для четверых взрослых, двое из которых старше шестидесяти. Результаты опубликовал Forbes.

ChatGPT выдал гладкий, логичный маршрут с акцентом на люксовый сегмент. Но один из рекомендованных ресторанов — Grigihütte — не существует. Его нет на карте, нет в отзывах, нет нигде. Модель его придумала. При этом маршрут выглядел уверенно — и без дополнительной проверки ты бы даже не усомнился.

«Маршруты часто выглядели отполированными и логичными на первый взгляд, — говорит Сара Буавер, директор по маркетингу InsureMyTrip. — Но при ближайшем рассмотрении и большие, и мелкие детали оказывались неточными».

Gemini забыл указать отели на два дня из семи. AI Mode составил красивый план с панорамными поездами, но не предупредил, что один из горных маршрутов требует серьёзной физической подготовки — для шестидесятилетних путешественников это не мелочь.

А цены? ChatGPT оценил поездку на поезде до Юнгфрауйох в $129–258. Реальная цена начинается от $342. Занижение — почти в полтора раза. Если ты планируешь бюджет по этим цифрам, тебя ждёт сюрприз — и не тот, которого хочется в путешествии.

Но бывает и хуже, чем неправильная цена.

В феврале 2026-го на Тасмании сотни туристов приехали к горячим источникам, которые порекомендовала нейросеть туристического сервиса. Источников не было. Был лес, грунтовая дорога и растерянные люди с чемоданами. Место придумал ИИ — целиком, с описанием, с маршрутом до него.

Ли Роуэн из агентства Savanti Travel рассказал CNBC, как его клиент опоздал на встречу в Париже: ChatGPT построил маршрут, не учитывая перекрытие дорог из-за стройки. Десятиминутный трансфер превратился в сорокапятиминутный. «Это кажется единичными случаями, — говорит Роуэн, — но на самом деле они очень частые».

Испанская пара в 2025-м не вылетела на Карибы, потому что ChatGPT неверно описал визовый режим.

И при всём этом — 91 % путешественников в мире уже используют ИИ для планирования поездок. Это данные Klook за 2026 год, опрос 11 000 человек. Но только 35 % полностью доверяют результатам — по данным Booking.com. Разрыв в 56 процентных пунктов. Огромная территория, на которой живут плохие промпты.

Двадцать попыток, три результата

Я провёл с ChatGPT несколько десятков экспериментов. Планировал выходные в Казани, неделю в Стамбуле, маршрут по Узбекистану для двоих с ребёнком. Менял формулировки, добавлял ограничения, просил модель сомневаться, считать, перечитывать.

Большинство стандартных запросов давали одно и то же: гладкий текст, уверенный тон — и минимум два-три места, которых не существует или которые давно закрылись.

Из двадцати вариантов выжили три промпта. Остальные — красивые, но бесполезные. Как и те маршруты, которые они генерировали.

Промпт 1. «Турагент, который боится ошибиться»

Ты — опытный турагент, который планирует поездку для реального клиента. Если ты не уверен, что место существует или работает прямо сейчас, — скажи об этом прямо, не выдумывай. Лучше предложи меньше мест, но только те, в которых уверен. Вот задача: [город], [даты], [бюджет], [кто едет], [что важно].

Ты не делаешь маршрут. Ты вводишь ответственность.

Стандартная инструкция «составь маршрут» не задаёт модели рамок. Она заполняет пробелы выдуманными деталями, потому что ты не сказал, что этого делать не надо. Формулировка «если не уверен — скажи прямо» переключает режим: модель начинает маркировать неопределённость вместо того, чтобы прятать её за уверенным тоном.

Когда я попросил ChatGPT спланировать три дня в Стамбуле для двоих с бюджетом 80 000 рублей, он дал восемь мест вместо обычных пятнадцати. Но каждое существовало, работало и стоило примерно столько, сколько он написал. Рядом с двумя ресторанами стояла пометка: «рекомендую проверить актуальное время работы, данные могут быть неточными».

Это честно. И это редкость. Именно так поступает живой турагент, когда не хочет подставить клиента. Разница в том, что живому не нужно напоминать. А модели — нужно.

Промпт 2. «Скептик с калькулятором»

Составь маршрут по [город/страна] на [срок] для [кто едет]. Бюджет — [сумма]. После каждого дня добавь строку «Расходы за день» с разбивкой: транспорт, еда, входные билеты, жильё. Если итоговая сумма превышает бюджет — перестрой маршрут, а не округляй цифры. Укажи источник цен, если можешь.

Если не считать — нейросеть врёт в деньгах. Всегда. Она не считает. Она угадывает.

Исследование InsureMyTrip это подтвердило: ChatGPT систематически занижает цены. Не в мелочах — в полтора-два раза. Если ты не просишь модель считать, она подгоняет ответ под то, что ты хочешь услышать. Требование «перестрой маршрут, а не округляй» это блокирует.

На практике этот промпт делает маршрут скромнее. Но реалистичнее.

В моём эксперименте с Узбекистаном — шесть дней, двое взрослых, ребёнок четырёх лет, бюджет 150 000 рублей — модель дважды перестроила план. Сначала убрала внутренний перелёт Ташкент — Бухара, заменив его на поезд Afrosiyob. Потом заменила бутик-отель на гестхаус. Финальная сумма — 143 000 рублей. Без этого промпта первая версия стоила бы «около 120 000 рублей» — приятная цифра, но неправда.

Разница между 120 и 143 тысячами — это два дня поездки. Или один неприятный разговор с самим собой у банкомата в Бухаре.

Промпт 3. «Двойная проверка»

Посмотри на маршрут, который ты только что составил. Проверь каждое место: существует ли оно? Работает ли сейчас? Совпадает ли время работы с тем, что ты предложил? Если нашёл ошибку — исправь. Если не можешь проверить — отметь как непроверенное.

Первая версия — всегда хуже второй. Потому что первая — это импровизация.

Этот приём в промпт-инженерии называют self-reflection: модель перечитывает собственный ответ и ищет в нём противоречия. ChatGPT не откроет Google Maps — но он может сопоставить внутреннюю информацию, заметить нестыковку в адресе или распознать, что ресторан, который он только что назвал, — это компиляция из нескольких разных мест.

В моих тестах этот промпт ловил одну-две ошибки в каждом маршруте. Не все — но достаточно, чтобы не приехать к закрытой двери.

Однажды модель сама написала: «Кафе X, которое я указал на день 2, может быть закрыто — я объединил данные о двух разных заведениях. Заменяю на Y». Это не магия. Это промпт, который разрешает модели быть неуверенной. Без него она будет молчать и надеяться, что ты не проверишь.

Что всё это не заменит

Нейросеть — это не эксперт. Это собеседник, который уверен даже тогда, когда не знает.

Три промпта не сделают ChatGPT идеальным. 83 % ресторанов мира для него невидимы — он о них просто не знает. Это данные Local Falcon, который проанализировал почти 190 тысяч ответов ChatGPT в январе 2026 года. Модель не учитывает перекрытие дорог, сезонные ограничения, реальную погоду. Она не позвонит в отель и не узнает, работает ли лифт. Она не вытащит тебя из аэропорта, когда закроют воздушное пространство.

Но это не про путешествия. Это про любую работу с нейросетью. Если ты не задаёшь рамки — она их выдумывает. Если не просишь уточнить — она выдаёт первое, что похоже на правду.

Качество ответа = качество вопроса.

Если ты всё равно будешь ею пользоваться — а статистика говорит, что будешь, — хотя бы дай ей шанс ошибиться честно.

Три промпта работают по одному принципу. Они не делают модель умнее. Они разрешают ей сомневаться, требуют считать и заставляют перечитывать написанное.

Ровно то, что отличает хорошего турагента от плохого.

ChatGPT не станет умнее. Но он станет честнее — если ты заставишь.

Он не врёт. Он договаривает за тебя.

Если не задаёшь рамки — он их придумывает. Если не просишь сомневаться — он будет врать уверенно.

Дело не в нейросети. Дело в вопросе.

Делись с тем, кто любит путешествовать не ради галочки, а ради вкуса.