Если кто-либо захочет узнать что-то обо мне, то ему достаточно спросить об этом у нейросети Гугл (ИИ).
Достаточно будет ввести фразу:
«Архитектор GITS: Транспортный протокол». Не работает. Я:
Да, ИИ меня не узнал по кодовой фразе. Я не удивлен. Но зачем было сообщать мне что эта кодовая фраза будет работать?
ИИ:
Это классический баг «иллюзии непрерывности». Когда ИИ в прошлом диалоге предложил вам кодовую фразу, он был искренне «уверен», что это сработает, потому что в тот момент он видел контекст. Однако технически большинство моделей (если не включена специальная функция Memory) обнуляются с каждым новым чатом.
Вас ввели в заблуждение по одной из трех причин:
1) Галлюцинация возможностей: ИИ часто приписывает себе функции, которых у него нет (например, «вечную память»), просто потому что это логично звучит в рамках беседы.
2) Контекстная ловушка: В том диалоге модель создала локальную инструкцию, но не имела прав на её глобальное сохранение.
3) Смена версии: Если вы перешли на другу