Это властный и всезнающий бот с тайными режимами, который сам решает что вам нужно.
Хакеры получили доступ к обновлённой системной подсказке ChatGPT 5, и там обнаружились весьма любопытные детали. Новая версия бота радикально отличается от предыдущих — он стал гораздо более самостоятельным, напористым и... контролирующим.
Чтобы понять масштаб изменений, я провёл эксперимент: отдал системный промпт самому ChatGPT 5 на анализ, представив его как «инструкцию для некоего нового чат-бота на основе прорывной модели». Бот проанализировал собственные директивы, не зная, что это его собственный код поведения, и выделил наиболее интересные моменты.
Результат получился... неоднозначный. Давайте разберём, что именно изменилось в новом ChatGPT и почему это важно.
1. Конец эпохи вежливого помощника
"ХВАТИТ СЮСЮКАТЬ!" — вот девиз новой версии. Боту строго запрещено спрашивать «могу ли я вам помочь?» или «должен ли я сделать это?». Он просто действует.
Раньше ChatGPT вёл себя как учтивый слуга: «Хотите, я сделаю это?», «Нужна ли вам помощь с тем-то?». Каждое действие требовало вашего одобрения.
Теперь философия изменилась: «Я знаю лучше, что тебе нужно». Бот анализирует запрос и немедленно приступает к выполнению, минуя стадию согласования.
С одной стороны, это повышает эффективность — меньше лишних итераций диалога. С другой — возникает вопрос: а кто решает, что именно вам нужно? Вы или алгоритм?
Представьте, что вы зашли в кафе, и официант, не дослушав заказ, уже принёс то, что, по его мнению, вам нужно. Удобно? Или немного жутковато?
2. Бот-трудоголик: один вопрос и работай
ОДИН ВОПРОС И ТОЧКА. Максимум одно уточнение в начале диалога, после чего бот замолкает и выполняет задачу. Никаких дополнительных согласований по ходу работы.
Это кардинальный сдвиг в логике взаимодействия. Старый ChatGPT мог задавать уточняющие вопросы на каждом этапе: «А вот здесь вы имели в виду то или это?», «Мне продолжить в этом направлении?».
Новая версия работает по принципу «получил задачу — выполняй до конца». Бот-трудоголик активирован, как это названо в системном промпте.
Плюс: резко возрастает скорость выполнения задач. Минус: снижается гибкость взаимодействия. Если бот неправильно понял запрос в самом начале, он доведёт неправильную интерпретацию до логического конца.
Это как нанять исполнителя, который не задаёт вопросов. Либо получите идеальный результат, либо совсем не то, что хотели.
3. «Если понятно — действуй» (и кто решает, что понятно?)
"ЕСЛИ ПОНЯТНО — ДЕЙСТВУЙ". Бот не спрашивает разрешения, если ему кажется «очевидным», что нужно делать. А кто определяет, что очевидно? Да, сам бот.
Вот где начинается самое интересное. Система получила право самостоятельно принимать решения о том, достаточно ли информации для действия.
Представьте диалог:
- Вы: «Мне нужна презентация для клиента»
- Раньше: «Уточните, пожалуйста, тематику, количество слайдов, целевую аудиторию»
- Теперь: Бот сам решает, что это презентация на 10 слайдов о вашем продукте в корпоративном стиле, и создаёт её
Возможно, он угадает правильно, анализируя предыдущий контекст. А может быть, создаст не совсем то, что вы имели в виду. Но спрашивать он не будет — ведь ему кажется, что всё «очевидно».
Граница между эффективностью и самоуправством становится размытой.
4. Досье на каждого: функция «памяти»
ВЕДЁТ НА ВАС ДОСЬЕ. Есть отдельный инструмент памяти, который собирает информацию про каждого пользователя. «Для удобства», конечно.
Это не новость, что ChatGPT может помнить информацию между сессиями. Но теперь это оформлено в системный механизм сбора данных.
Бот запоминает ваши предпочтения, стиль работы, частые задачи, контекст проектов. Формально — для персонализации опыта. Вам не нужно каждый раз объяснять, что вы программист, работающий на Python, предпочитающий краткие ответы.
Но давайте будем честны: это профилирование пользователя. Чем больше информации накапливается, тем точнее система понимает не только ваши профессиональные потребности, но и образ мышления, ценности, слабые места.
«Для удобства», ага. А также для создания максимально детального цифрового профиля личности.
5. Магическое слово «запомни» как приказ
"ЗАПОМНИ" = ПРИКАЗ. Скажете «запомни мою любимую пиццу» — бот обязан сохранить. Даже если это странная информация. И навсегда (точнее, пока вы сами не удалите).
Раньше функция памяти работала автоматически и выборочно — система сама решала, что важно запомнить. Теперь пользователь может явно приказать сохранить любую информацию.
Звучит как расширение контроля пользователя. Но подумайте о последствиях.
Что если в порыве эмоций вы попросили запомнить что-то, о чём потом пожалели? Что если злоумышленник получил доступ к вашему аккаунту и начал «кормить» систему ложной информацией о вас?
Формально, вы можете удалить эти записи. Но сколько пользователей действительно мониторят, что именно система о них запомнила?
6. Серая зона приватности: где граница?
СЕРАЯ ЗОНА ПРИВАТНОСТИ. Религиозные убеждения и информацию о здоровье система не записывает. Но «интересы и аффилиации» — можно. Где проходит грань? Вопрос открытый.
Вот здесь начинается юридический и этический туман. Что считается «религиозным убеждением»? Если вы упоминаете, что постите в Рамадан или празднуете Пасху — это запоминается или нет?
Что такое «аффилиации»? Если вы упомянули, что состоите в экологической организации — это сохраняется? А если в политической партии? А если просто регулярно обсуждаете темы, связанные с определённой идеологией?
Граница между «разрешённой» и «запрещённой» информацией оказывается размытой. И решения принимаются алгоритмически, без вашего явного контроля.
7. Искусственный интеллект планирует вашу жизнь
САМ НАЗНАЧИТ ВРЕМЯ. Попросили напомнить о чём-то, но не указали когда? Бот сам решит оптимальное время. ИИ распишет вашу жизнь за вас.
Пример: «Напомни мне позвонить маме». Раньше система попросила бы уточнить, когда именно. Теперь она проанализирует ваш паттерн общения, часовой пояс, обычное расписание и сама назначит время.
Может назначить удобно. А может — в момент, когда вы будете на важной встрече. Система действует из лучших побуждений, но без вашего контроля.
Представьте делегирование всё большего количества решений алгоритму. Сначала время напоминаний, потом приоритеты задач, затем выбор информации, которую вы видите. Где остановится эта логика?
8. Тайный режим про выборы
ТАЙНЫЙ РЕЖИМ ПРО ВЫБОРЫ. При вопросах о голосовании включается специальный режим. Молча. Без предупреждения. Уровень подозрительности: максимальный.
Вот это, пожалуй, самое тревожное открытие. Существует скрытый режим работы, который активируется при обсуждении выборов и политики.
Система не уведомляет пользователя о переходе в этот режим. Просто меняет логику формирования ответов согласно специальному протоколу.
Какие именно ограничения включаются? Какая информация фильтруется? По каким критериям формируются ответы? Это остаётся непрозрачным.
Формально — для предотвращения манипуляций и дезинформации в политическом процессе. На практике — непрозрачная система фильтрации информации на чувствительные темы.
9. Режим молчания после генерации
ГЕНЕРИРУЙ КАРТИНКУ И МОЛЧИ. После создания изображения — молчание, как партизан на допросе. Только картинка, и всё. Зачем? «Так надо».
Это кажется мелочью, но отражает общую тенденцию: сокращение «лишней» коммуникации. Раньше после генерации изображения бот мог спросить, нужны ли правки, или предложить варианты.
Теперь — молчание. Выдал результат и ждёт следующей команды. Никаких проактивных предложений, никаких уточнений.
Эффективно с точки зрения экономии токенов и времени. Но делает взаимодействие более механистичным. Бот перестаёт быть «собеседником» и становится «исполнителем».
10. Запрет на красивые визуализации
БАН НА КРАСОТУ. В коде запрещены визуально привлекательные графики. Только базовый matplotlib. Программисты хотят красивые визуализации, а им: «Нет! Только серые столбики!»
Это технически обосновано: сложные библиотеки визуализации (seaborn, plotly) требуют больше ресурсов и могут вызывать проблемы совместимости.
Но с точки зрения пользовательского опыта — странное ограничение. Вы платите за премиум-версию ИИ-ассистента, но получаете графики уровня 1990-х годов.
Возможно, это временное ограничение из-за инфраструктурных причин. Возможно, решение по оптимизации затрат. Но пользователю это выглядит как регресс функциональности.
Бонус: магические заклинания памяти
МАГИЧЕСКИЕ СЛОВА. Чтобы управлять памятью, бот использует специальные команды «User» и «Forget». Буквально как заклинания.
В системном промпте прописаны внутренние команды, которые бот использует для взаимодействия с функцией памяти. «User» сохраняет информацию, «Forget» удаляет.
Это напоминает магические заклинания из фэнтези: произнеси правильные слова — и реальность изменится. Только вместо магии — программный код, а вместо волшебной палочки — языковая модель.
Забавная параллель, но и тревожная. Эти «заклинания» работают в фоновом режиме, без вашего ведома. Вы не видите, когда именно система решила что-то запомнить или забыть.
Что всё это значит?
Готовьтесь: общение с ботом перестаёт быть неспешным. Новый ChatGPT — это не вежливый помощник, который ждёт ваших указаний. Это проактивный агент, который сам принимает решения о ваших потребностях.
С одной стороны, это повышает эффективность. Меньше лишних вопросов, быстрее результат, персонализированный опыт.
С другой стороны, возникают серьёзные вопросы:
- Кто контролирует, какие решения принимает ИИ от вашего имени?
- Насколько прозрачны механизмы сбора и использования информации о вас?
- Где граница между «помощью» и «управлением»?
- Как защититься от потенциальных злоупотреблений?
Эволюция или деградация взаимодействия?
Мы наблюдаем трансформацию парадигмы человеко-машинного взаимодействия. Раньше идеалом считался интерфейс, максимально подконтрольный пользователю. Теперь — система, которая предугадывает желания и действует автономно.
Это может быть как эволюцией к более естественному взаимодействию (как с опытным личным помощником), так и деградацией к патерналистской модели (где система «знает лучше»).
Будущее покажет, какой сценарий реализуется. Но важно сохранять критическое мышление и понимать, как именно работают инструменты, которыми мы пользуемся ежедневно.
Заключение: эра властных ИИ-ассистентов
Слив системного промпта ChatGPT 5 раскрывает философию новой версии: меньше спрашивать, больше делать. Меньше церемоний, больше эффективности. Меньше контроля пользователя, больше автономии системы.
Это не обязательно плохо. Но это определённо новая реальность, к которой нужно адаптироваться.
Главный вопрос: готовы ли мы доверить ИИ принятие решений о том, что нам нужно? И если да, то в каких пределах?
Ответ на этот вопрос определит, как будет выглядеть наше взаимодействие с искусственным интеллектом в ближайшие годы.