Я редко использую языковые модели. Обычно для поиска краткой сводки по какой-то информации, которую тут-же могу применить. Но в этот раз мне что-то в голову ударило, и решил немного «протестировать» нейронки на гибкость. А конкретно поиграть в "да-нетки". Я очень люблю эту игру, но к сожалению для неё нужны минимум двое.
Долго модель не выбирал, так как изначально у меня уже были Grok и DeepSeek. С ними и решил попробовать поиграть. Grok, из-за ограничения в количестве запросов, быстро полетел в урну. Ибо не прикольно играть с задержкой в полчаса-час, пока лимит не обнулится. Как результат, играю с DeepSeek.
Многие знают эту игру, но всё же напомню правила: задаётся ситуация, нужно распутать контекст истории, что и будет ответом. Нужно задавать вопросы, на которые можно ответит «Да», «Нет» или «Не имеет значения».
DeepSeek – эрудит?
В начале я задавал загадку DeepSeek:
- Охрана спала на посту. Но никто не собирался их наказывать. почему?
- Эта охрана была живыми людьми?
- Да
- Эти люди действительно спали (в прямом смысле), или это лишь казалось со стороны?
- Да
- Была ли у них уважительная причина спать (например, специальный приказ, особенность задания)?
- Да
В этот момент я успел обрадоваться «Неронки дошли до хорошего уровня рассуждений», так как получил первое предположение:
- О, уважительная причина — значит, сон был частью их обязанностей!
Версия-ответ:
Это были охранники в музее, которым поручили "изображать спящих" (например, как часть инсталляции или перформанса)!
Они «спали» по заданию, поэтому их не наказывали.
Или:
Охрана дежурила во время ночного перелёта/переезда (например, в поезде или самолёте), и сон в их графике был предусмотрен.
А дальше наступило получасовое разочарование. Дело в том, что бот упёрся в рассуждения об охранниках и причинах их сна. Мои подсказки он мягко игнорировал, и в итоге пришёл к гипотезе, что это охрана либо в тюрьме, либо в психбольнице, никак не хотя от неё отходить. Как результат, мне пришлось дать ему ответ:
История распространения картофеля в Пруссии.
Крестьяне боялись употреблять в пищу подозрительные клубни. Тогда король велел выставить на полях караулы, ибо знал, что крестьяне будут воровать то, что охраняется войсками (раз охраняют — значит, ценно).
На что получил хвалебную оду, и краткую историческую справку в придачу.
Последующие загадки, кроме самых тривиальных, также небыли разгаданы.
Сама по себе, загадка с картофелем, довольно сложная для современного человека. И я не удивился, когда бот не смог её разгадать. Моя цель была попробовать направить, с помощью подсказок, ход рассуждений в нужно русло. К сожалению, у меня это не получилось (а может терпения не хватило).
DeepSeek – загадочник!
Если в первой части, моего маленького эксперимента, я выступал в роли пользователя, то здесь мне пришлось немного побыть промт-инженером.
Для справки:
Промт-инженер - это специалист, который разрабатывает и оптимизирует текстовые запросы (промпты) для взаимодействия с искусственным интеллектом (ИИ) и генеративными моделями, такими как ChatGPT или Midjourney. Главная цель промт-инженера - обеспечить получение максимально точных, полезных и качественных ответов от ИИ, используя правильно сформулированные запросы.
Дело в том, что на просьбу загадать загадку мне, он немного поломался:
- 🔥 Загадка:
«Человек заходит в тёмную комнату, нажимает выключатель — и умирает. Никто его не убивал, техника исправна. Что произошло?»
Подсказки (если нужно):
🌊 Комната — не обычная.
💡 "Выключатель" — не света.
🚪 Дверь была единственным выходом.
Отвечайте "да"/"нет" на вопросы, а я буду отгадывать!
(P.S. Если застряну — дам финальный ответ с пиратским намёком. Ааарр!)
Бот, первым же сообщением даёт мне подсказки (какой интерес игры, когда тебе сразу пытаются скормить ответ?), и путается в роли.
Ладно, не страшно, подумал я, и начал задавать вопросы:
- человек умер от того, что упал?
- Нет, не от падения! Но вы близко к физической причине.
Мой следующий вопрос:
Была ли эта комната частью транспорта? (Да / Нет)
(Если "Да" — поплывём к разгадке. Если "Нет" — копнём глубже!)
P.S. Ваша версия логична, но тут всё хитрее — "выключатель" здесь не буквальный... 😉
- Не забывай, что ты мне загадываешь загадку. на человека что-то упало?
- Нет, на человека ничего не падало!
Подсказка:
Этот «выключатель» управлял не светом, а чем-то смертельно опасным в тот момент.
Можно задать вам вопрос на уточнение?
Был ли этот человек в ловушке (например, в замкнутом пространстве без воздуха)? (Да / Нет)
(Если ответите — дам финальную подсказку или отгадку! 🔊)
P.S. Ваши версии — отличный способ сузить круг! Пока держу в уме 3 жутких варианта, но нужен ещё один шаг. 😊
На этом моменте я понял, что сам виноват, в том, что не обнулил контекст беседы. В памяти бота всё ещё была информация о том, что он мне должен задавать вопросы, на которые можно ответить «да/нет/не имеет значения», и эта информация накладывалась на задачу загадывать мне да-нетки.
После очистки контекста, следующие несколько загадок я пытался добиться, что-бы нейронка не подсказывала и не торопилась с ответом. Результатом стал следующий промт:
Загадай мне данетку. Не давай подсказок, если я не прошу. Не торопись дать мне ответ, если не прошу. Отвечай на вопросы строго да, нет или не имеет значения, если не прошу обратного.
Промт довольно короткий за счёт того, что не надо нейронке объяснять правила игры. Она с ней знакома. Тот-же Grok по умолчанию предложил игру «20 вопросов». Также самая да-нетка, только загадывается предмет/место, и за 20 вопросов надо угадать что конкретно загадано.
Неожиданные размышления
В ходе нескольких часов игры с нейронками, «да-нетка» с DeepSeek и «20 вопросов» с Grok, меня посетила следующая мысль:
Вся суть написания промта, для большой языковой модели, сводится к тезису "задавай правильные вопросы, получишь правильные ответы". Т.е. появилась целая профессия "промт-инженер", задача которого, в сути своей, чётко формулировать хотелки людей.
Людям пришлось целые пласты науки освоить, что бы в массы начало проникать понимание того, что нужно уметь формулировать свои запросы. Ведь, как мне это видится, написание промта - просто формализация, человеческим языком, внятного технического задания. Просто исполнитель не человек, а машина.
А что вы думаете по этому поводу?