Найти в Дзене
Русь

Когда ChatGPT помнит лучше, чем ты, или Мои уникальные наработки, которые глобально изменят вашу коммуникацию с ИИ

Знаешь, как люди обычно пользуются ChatGPT? Открывают чат, задают вопрос, получают ответ, закрывают приложение. Как спросить у Алисы, какая погода, получить ответ и забыть про это. Такой режим удобен, если нужна быстрая справка. Но если ты работаешь над долгим проектом — месячным исследованием, например, — этот способ превращается в кошмар. Уже через несколько дней возникают типичные проблемы. Первая — нереплицируемость. Тот же вопрос, заданный в другом чате и в другой последовательности, часто даёт иные ответы. ChatGPT — это диалоговая модель. Она работает не по жёсткому алгоритму, а опирается на текущую историю сообщений. Один раз машина предложила тебе таблицу с городами торговли, а во второй раз предложила совсем другую. Какая правильная? Обе? Ни одна? Непонятно. Вторая проблема — распад долгих проектов. Ты работаешь, создаёшь таблицы, пишешь главы статьи, записываешь выводы. Но всё это разбросано по разным чатам. Первая таблица в одном диалоге, вторая таблица во втором, черновики
Оглавление

Глава 1. ChatGPT как реплицируемая лаборатория: постановка задачи

1.1. Почему обычное использование чат-моделей нереплицируемо

Знаешь, как люди обычно пользуются ChatGPT? Открывают чат, задают вопрос, получают ответ, закрывают приложение. Как спросить у Алисы, какая погода, получить ответ и забыть про это. Такой режим удобен, если нужна быстрая справка. Но если ты работаешь над долгим проектом — месячным исследованием, например, — этот способ превращается в кошмар.

Уже через несколько дней возникают типичные проблемы. Первая — нереплицируемость. Тот же вопрос, заданный в другом чате и в другой последовательности, часто даёт иные ответы. ChatGPT — это диалоговая модель. Она работает не по жёсткому алгоритму, а опирается на текущую историю сообщений. Один раз машина предложила тебе таблицу с городами торговли, а во второй раз предложила совсем другую. Какая правильная? Обе? Ни одна? Непонятно.

Вторая проблема — распад долгих проектов. Ты работаешь, создаёшь таблицы, пишешь главы статьи, записываешь выводы. Но всё это разбросано по разным чатам. Первая таблица в одном диалоге, вторая таблица во втором, черновики в третьем. Спустя месяц у тебя есть пятнадцать открытых чатов, и ты не помнишь, где что. Собрать это всё в единое целое практически невозможно. Ещё хуже — воспроизвести, как ты вообще пришёл к этим выводам. Какие были исходные данные? Какие гипотезы ты проверял? Всё потеряно в хаосе диалогов.

Третья проблема — отсутствие формальной точки сборки. В обычном чате нет понятия итерации проекта. Нет единого артефакта, который можно было бы считать законченным снимком состояния работы. Вот ты писал в чате час, потом два часа. Когда остановиться и сказать: "Вот, это итерация 1, она завершена"? В диалоге это невозможно. Есть только бесконечная полоса сообщений.

И четвёртая проблема — сложность переноса в новый чат. Чтобы продолжить работу в другом диалоге (например, потому что первый стал слишком длинным), приходится вручную копировать огромные инструкции, описания структуры, части материалов. Ошибки и пропуски почти неизбежны. Ты забудешь скопировать один пункт — и вот уже машина ведёт себя иначе.

В результате даже очень продуктивные сессии с ChatGPT превращаются в плохо документированную творческую деятельность. Полезно, да. Но трудно проверяемо. Практически невозможно воспроизвести шаг за шагом. Это не научно, это импровизация.

На эту проблему и нацелена идея, которую можно описать одной формулой: ChatGPT как реплицируемая лаборатория без единой строки кода.

1.2. Идея реплицируемой лаборатории

Под реплицируемой лабораторией в контексте ChatGPT понимаются три ключевых свойства, и это не просто слова.

Первое свойство — каждый блок работы завершён формальным артефактом. Не просто текстом ответов в чате, который потом потеряется. А полным снимком проекта. Структура документов, таблицы данных, рабочие заметки, черновики — всё это собирается в один файл. Точка в одной итерации.

Второе свойство — любую итерацию можно восстановить и продолжить. Новый чат, другой день, даже другой пользователь. При наличии этого артефакта должна быть возможность продолжить проект ровно с того же логического состояния. Как в видеоигре: загрузил сохранение 10 и продолжил со своего последнего шага.

Третье свойство — правила работы заданы заранее и машинно-читаемо. Модель не угадывает стиль и режим, а следует явному регламенту. Этот регламент загружается в начало работы и действует как конституция сессии. Машина уходит в чёрный ящик при выполнении, но заранее ты дал ей чёткие инструкции.

Технически это достижимо без написания пользовательского кода. Нужны только средства ChatGPT Plus, особенно режим GPT-5.1 Thinking. Что требуется? Возможность загружать и скачивать файлы, включая zip-архивы. Долговременный контекст конкретной сессии — чтобы машина помнила всё, что было в начале диалога. Способность модели интерпретировать JSON-конфигурации и следовать заданным там правилам. Всё это есть.

На основе этого выстраивается дисциплинированная схема. Каждая итерация проекта равна одному zip-архиву: архив_01.zip, архив_02.zip, архив_03.zip и так далее. Внутри каждого архива стабильный каркас каталогов: META, DOCS, DATA, NOTES. Правила работы описаны в отдельном JSON-файле, который загружается в первом запросе. Больше ничего не нужно.

AI_RULES.json — Яндекс Диск

1.3. Роль ChatGPT Plus и режима GPT-5.1 Thinking

Возможность превратить ChatGPT в подобие лабораторного журнала опирается на три конкретные характеристики среды.

Первая — поддержка файлов и архивов. В платном тарифе Plus можно загружать в чат документы, таблицы, архивы. Это не просто удобство. Это позволяет рассматривать zip-архив не как абстракцию, а как реальный артефакт, с которым модель работает. Она читает структуру папок, комментирует содержимое, предлагает изменения. Машина видит, что там лежит, и может говорить об этом.

Вторая характеристика — режим расширенного рассуждения, GPT-5.1 Thinking. Этот режим полезен не столько за счёт чистой умности, сколько за счёт способности выдерживать сложные многошаговые инструкции. Режим Thinking может работать с формальными структурами — CSV, JSON, YAML, спецификациями. И одновременно держать в голове предыдущие итерации, структуру архива, регламент поведения, заданный в JSON. Это как режим глубокого сосредоточения.

Третья характеристика — диалог как сессия проекта, а не разовая консультация. Внутри одной сессии контекст сохраняется. Если в начале задать понятный регламент, модель может последовательно работать в пределах принятых правил. Ты не переживаешь, что машина забудет, что было пять сообщений назад. Она помнит.

Именно на этот набор возможностей и опирается подход. ChatGPT как реплицируемая лаборатория — это по сути специализированный способ использования Plus-тарифа и режима Thinking для долгоживущих проектов.

1.4. Идея итерации через zip-архив

Ключевой технический приём очень простой — рассматривать каждый завершённый этап работы как полный снимок проекта в виде zip-архива. Итерация определяется не датой и не длиной переписки, а логикой. Была поставлена задача. Изменена или уточнена структура материалов. Добавлены новые слои данных или главы текста. В завершении сформирован новый архив-снимок. Вот это одна итерация.

Такой zip-архив имеет стабильный каркас. Во всех итерациях структура одинакова. архив_XX.zip содержит папки META, DOCS, DATA, NOTES. В META лежат VERSION.txt с описанием этой итерации, MANIFEST.yml со списком содержимого, POLICY.yml с правилами. Опционально — BUILD.json с техническими метаданными. В DOCS лежат готовые тексты. В DATA — таблицы и расчёты. В NOTES — черновики и открытые вопросы.

Внутри архива действует логика APPEND_ONLY на уровне смысла. Нельзя задним числом стирать уже существующие слои информации. Если какие-то данные были в архиве 5, они должны быть и в архиве 6. Но можно добавлять новые файлы и таблицы. Можно добавлять новые строки к старым таблицам. Можно уточнять интерпретации, но оставляя следы прежних.

Версионирование живёт только через META. Имена каталогов и ключевых файлов не меняются от архива к архиву. Номер итерации, метки и список изменений фиксируются в META/VERSION.txt и META/MANIFEST.yml. Просто и честно.

Идея в том, что новый архив всегда надстраивает предыдущий, не нарушая его логической целостности. Это полностью совместимо с человеческим подходом — исследователь собирает архив вручную. И одновременно идеально подходит для ChatGPT, который видит структуру, пишет тексты и таблицы по шаблону, обновляет манифесты и версионные файлы как рекомендации. Никаких лишних бинарных заглушек.

1.5. JSON как конституция для нового чата

Вторая опора метода — машиночитаемый регламент работы, упакованный в JSON-файл.

Идея в следующем. Вместо того чтобы каждый раз копировать длинные инструкции в первый запрос, исследователь один раз формирует файл AI_RULES.json. В нём описываются общие цели — работа только через архив-снимки, никаких рассыпанных чатов. Фиксируется структура архива — какие должны быть папки, какие файлы. Задаётся политика изменений: append-only, никаких удалений, никаких переименований ключевых файлов. Запрещается создание бессмысленных бинарных файлов-заглушек. Описывается, что модель обязана делать в конце каждой итерации: назвать номер архива, структурировать изменения, предложить новый VERSION.txt.

В новом чате пользователь загружает AI_RULES.json. В первом сообщении кратко формулирует: "Используй этот JSON как регламент работы. Все шаги — через архивы, каждая сессия заканчивается проектом нового zip-снимка". Модель, работая в режиме GPT-5.1 Thinking, интерпретирует JSON как набор строгих правил поведения. После этого она больше не нуждается в длинных текстовых инструкциях. Все важные ограничения уже зашиты в структуру файла.

В результате несколько практических выигрышей. Диалог становится короче на входе — нет многократного копирования правил. Поведение модели стандартизировано между разными сессиями. Исследователь может делиться не только текстами, но и самим регламентом. Любой другой пользователь, загрузив тот же JSON, воспроизведёт рабочую среду. Это как передать не только своё исследование, но и саму лабораторию.

1.6. Принцип без кода, но с формальными артефактами

Здесь важно подчеркнуть: описанный подход не требует от пользователя навыков программирования. Никаких. Всё, что нужно уметь, это сохранять zip-архивы на своём устройстве и работать с простыми текстовыми форматами: Markdown, CSV, JSON, YAML. Не кодирование, а обычные текстовые форматы, которые видишь везде.

Ключевое изменение — это не боязнь формальных артефактов. Пользователь должен воспринимать ChatGPT не как чёрный ящик, а как соавтора текстов и структур. Как специалиста, который помогает проектировать форматы и структурировать данные. Помощника по ведению версионного журнала.

Модель не исполняет код. Не вызывает внешние системы. Не управляет файловой системой напрямую. Она делает то, что лучше всего умеет: проектирует, структурирует, комментирует, переписывает. Всё остальное — сборка zip, хранение, распространение — остаётся в руках пользователя. Но пользователь уже не тонет в хаосе несвязанных чатов. Он работает в формате: одна итерация — один архив, одна сессия — один формально описанный шаг вперёд.

1.7. Границы и возможности

Такой подход не решает все проблемы науки о воспроизводимости. Но даёт важный практический компромисс.

Для сложных проектов можно вести многомесячную работу с моделями ChatGPT и при этом каждую стадию оформлять как завершённый, воспроизводимый снимок. Ты не теряешься в хаосе. Каждый день есть структура.

Для коллективной работы можно делиться не набором разрозненных ответов, а архивом с чёткой структурой и регламентом. По этому регламенту другой участник или другой сеанс ChatGPT продолжит проект. Никакой путаницы: вот архив 15, вот правила работы, продолжай как архив 16.

Для методологических экспериментов с ИИ можно исследовать, как разные настройки регламента влияют на качество результата. Строже или мягче правила append-only? Иной каркас каталогов? Это всё можно тестировать.

Тем самым ChatGPT в тарифе Plus превращается из умного чат-бота в оформленный исследовательский инструмент. Лабораторию, где каждый шаг фиксируется, логика работы задана заранее, и всё это без написания кода и без сложной инфраструктуры. Просто ChatGPT, zip-архивы и JSON-конфиг. И система работает.

Глава 2. Спецификационное ядро: архив и JSON-регламент как контракт с моделью

2.1. Архив как единица измерения работы

В обычном диалоге с ChatGPT единица работы — это сообщение. Ты спросил, машина ответила, это одна единица. Потом ты спросил снова, это вторая единица. Можешь открыть этот же чат через неделю, прочитать всё, но структуры в этом нет.

В режиме реплицируемой лаборатории единица становится совсем другой. Это архив-снимок проекта. Каждый законченный шаг оформляется как один zip-архив. Каждый архив содержит полную картину проекта на данный момент, не только новые файлы. Любая последующая итерация трактуется не как замена, а как надстройка над предыдущей.

Архив выполняет сразу три функции. Первая — это снимок состояния. Что уже сделано на определённом этапе? Открыл архив 7, посмотрел, и видишь всё, что было к этому моменту. Вторая функция — это точка воспроизведения. От чего можно стартовать в новом чате? Загрузишь архив 7, и можешь продолжить с того же логического места. Третья функция — формальный объект ссылки. На него можно указать в конце итерации: вот, это архив X, итоговый результат этого дня.

Это принципиально отличает лабораторный подход от спонтанного диалога. У проекта появляется строгая, квантованная история. Как в видеоигре, где после каждого значимого шага ты создаёшь новое сохранение. Не просто играешь, а фиксируешь прогресс.

2.2. Структура архивного каркаса

Формат архива должен быть минимально сложным и максимально стабильным. Не нужны десятки папок и вложенная иерархия. На уровне верхних каталогов достаточно четырёх блоков: META, DOCS, DATA, NOTES. Вот и всё.

META — это служебный слой, центр тяжести всей системы. Здесь фиксируются общая информация о проекте и итерации, описание структуры архива, регламенты изменений и поведения модели. Логика работы строится вокруг META, а не вокруг имени zip-файла. Это как конституция архива.

DOCS — это человекоориентированные тексты. Главы, статьи, пояснительные записки, методологические комментарии, итоговые отчёты. Важное свойство: DOCS интерпретируются как вторичный слой по отношению к META. Они объясняют и разворачивают то, что формально зафиксировано в служебных файлах. Это как если бы META был скелетом, а DOCS — мясом и кожей.

DATA — это машиночитаемые данные. Таблицы в формате CSV или JSON, реестры сущностей, параметры расчётов, конфигурационные матрицы. Здесь должны находиться все структуры, к которым модель будет систематически обращаться: списки событий, регистры, справочники. Это как база данных проекта.

NOTES — это рабочие материалы. Черновые конспекты, списки задач, открытые вопросы, промежуточные сводки. В отличие от DOCS, содержимое NOTES может быть невычищенным и незавершённым. Главный критерий — полезность для следующей итерации, а не литературная отредактированность. Это как рабочий стол исследователя, где можно оставить всё в беспорядке, потому что это временно.

Ключевой принцип здесь такой: эта четырёхчастная структура неизменна от итерации к итерации. Добавляются и уточняются файлы внутри, но каркас остаётся тем же. В архиве 1 есть META, DOCS, DATA, NOTES. В архиве 25 — там же самые четыре папки. Это даёт стабильность и предсказуемость.

2.3. Служебный слой META: ядро спецификации

В каталоге META достаточно нескольких фиксированных файлов, которые задают всю конституцию проекта. Не нужна тонна служебных файлов. Нужно ровно столько, сколько необходимо для понимания.

VERSION.txt — это человекочитаемый паспорт текущей итерации. В нём фиксируются общее имя проекта без привязки к конкретному чату, номер итерации (1, 2, 3 и так далее), условная метка архива (архив 1, архив 2), дата и час сборки, краткий список изменений по сравнению с предыдущим снимком. Это основной ориентир для любого читателя архива. Открыл архив 7, прочитал VERSION.txt, и уже понимаешь, в чём его суть.

MANIFEST.yml или иной текстовый формат манифеста — это описание структуры и ключевых артефактов. Какие каталоги и типы файлов входят в состав архивного снимка? Какие документы считаются опорными? Какие таблицы являются центральными реестрами? Какие артефакты должны быть доступны пользователю? MANIFEST служит связующим звеном между человеческим представлением о проекте и машинной логикой его обработки. Это как оглавление, но более техническое.

POLICY.yml — формализованный регламент изменений. Здесь фиксируются запрет на удаление файлов между итерациями, запрет на переименование ключевых путей, режим только добавления на уровне смысла, запрет на встраивание тяжёлых бинарных источников внутрь архива, правило использования цитат вместо массового копирования внешних материалов. И важный пункт — прямой запрет на создание бессодержательных бинарных файлов. Модель не должна предлагать заглушки ради заполнения структуры. Каждый файл должен выполнять реальную смысловую функцию.

BUILD.json (опционально) — компактный машинный паспорт итерации. Дублирует информацию из VERSION и MANIFEST в структурированном виде. Может использоваться внешними инструментами или будущими автоматизированными обёртками вокруг ChatGPT. На практике достаточно, чтобы любой новый архив содержал, как минимум, VERSION.txt и MANIFEST. POLICY и BUILD могут добавляться по мере усложнения проекта.

2.4. Модель итераций: от архива 1 к архиву N

Итерация в лабораторной схеме не просто временной отрезок. Это атомарный шаг изменения состояния проекта. Для неё задаются три правила.

Первое — нумерация и метки. Каждый снимок получает номер итерации (1, 2, 3 и так далее), человекочитаемую метку (архив 1, архив 2), привязку к конкретному zip-файлу (например, архив_01.zip). Все эти данные фиксируются в META/VERSION и META/MANIFEST. Просто и однозначно.

Второе — принцип расширения. Новая итерация обязана содержать все сущности, присутствовавшие ранее, даже если они помечены как устаревшие, плюс добавленные и уточнённые блоки. Никакие прошлые данные не исчезают бесследно. Меняется их статус, но не сам факт существования. Как история: ты не можешь стереть, что произошло, но можешь сказать, что это было ошибкой.

Третье — итоговое выражение в ответе. Каждый раз, когда логически завершается шаг работы, модель должна явно назвать номер текущей итерации, указать предполагаемое имя архива, перечислить, какие файлы, таблицы, главы были добавлены или уточнены. Тем самым зафиксировать, каким должен быть новый zip-снимок. Пользователь, в свою очередь, отвечает за физическую сборку архива на своей стороне, опираясь на эти описания.

2.5. Политика изменений: APPEND_ONLY и анти-усушка

Смысловой центр спецификации — политика изменений. В простейшем виде она сводится к нескольким положениям.

Только добавление. Содержательная эволюция проекта идёт вширь и вглубь, а не назад. Добавляются новые строки в таблицы. Добавляются новые разделы в документы. Создаются новые файлы для уточнённых интерпретаций. Полное уничтожение старых версий не допускается. Если интерпретация признана ошибочной, она помечается как устаревшая в явной форме — может быть, в NOTES или в специальном поле таблицы. Но текст остаётся.

Нет стирания, нет переименования ключевых путей. Каталоги верхнего уровня (META, DOCS, DATA, NOTES) и служебные файлы в META не должны подвергаться переименованию. Это важное условие для сохраняемости ссылок. Ссылки из DOCS и DATA на служебный слой всегда остаются валидными. Будущие инструменты могут опираться на фиксированную структуру.

Анти-усушка содержания. На уровне здравого смысла каждая новая итерация должна быть богаче предыдущей. Нельзя переходить от полного описания процессов к более краткому без явных пометок. Нельзя выбрасывать целые тематические блоки без фиксации причины в NOTES или CHANGELOG. Это как в книге: если вторая глава короче первой без объяснения, читатель заподозрит, что что-то потеряно.

Запрет бессмысленных бинарных файлов. Отдельно фиксируется правило: модель не должна генерировать рекомендации по созданию пустых PDF, изображений или других бинарных объектов исключительно ради заполнения каркаса. Любой файл в структуре должен быть либо носителем осмысленного содержимого (текст, таблица, анализ), либо явно обозначенным технико-служебным артефактом (манифест, паспорт сборки).

2.6. JSON-регламент как единый носитель правил

Всё описанное выше можно выразить в виде длинной текстовой инструкции, но на практике это громоздко. Рядовой пользователь вряд ли захочет каждый раз вставлять в первый запрос несколько страниц регламента. Поэтому рациональнее упаковать весь набор правил в один конфигурационный JSON-файл — условно AI_RULES.json.

Этот файл описывает структуру архива (META, DOCS, DATA, NOTES), фиксирует обязательные служебные файлы, задаёт политику изменений (append-only, no-delete, no-rename, анти-усушка, запрет бинарных заглушек), прописывает требования к поведению модели в конце каждой итерации — обязательная фиксация номера архива, описание изменений и так далее.

При этом пользователю не нужно видеть или понимать внутреннюю структуру этого файла во всех деталях. Достаточно базового понимания: JSON-регламент создаётся один раз, либо самим пользователем, либо на основе уже подготовленного шаблона.

В новом чате пользователь загружает этот файл и в первом текстовом сообщении формулирует простую директиву: "Используй загруженный JSON-файл как регламент работы. Все шаги оформляй через архивы с описанной там структурой и политикой изменений". Далее модель опирается на этот регламент во всех ответах. Предлагает только такие изменения, которые не противоречат политикам из файла. Каждый законченный шаг завершает описанием нового архив-снимка. Не предлагает создавать бессмысленные бинарные файлы.

Фактически JSON выступает в роли компактной, машиночитаемой конституции лаборатории. Как договор между пользователем и машиной.

2.7. Особенности реализации в среде ChatGPT

Пока практическая реализуемость подобного подхода наиболее высока именно в рамках ChatGPT Plus. Интерфейс поддерживает загрузку и скачивание файлов, в том числе zip. Модель в режиме GPT-5.1 Thinking достаточно мощная, чтобы интерпретировать сложный JSON-регламент, устойчиво следовать заданной политике, работать со структурой архивов как с концептуальной схемой, даже если сама сборка zip выполняется пользователем.

Другие инструменты генеративного ИИ, как правило, либо ограничены по работе с файлами, либо не предоставляют столь же удобного диалогового интерфейса, где конфигурационный JSON можно было бы использовать как стартовый протокол сессии.

Отсюда важный вывод: пользователь без навыков программирования получает возможность задать строгий, повторяемый режим работы один раз, в форме JSON-файла. Затем во всех будущих сессиях просто загружает этот файл и продолжает проект в рамках одной и той же логики. Оформляет результаты в виде архивов-снимков, которые можно хранить, пересылать и воспроизводить.

От спецификации можно перейти к практическим сценариям. Как на основе такого архива и JSON-регламента организовать реальную исследовательскую или проектную работу? От первых набросков до многомесячных циклов анализа? Это раскроет следующая глава.

Глава 3. Практические сценарии: как превратить диалог с ChatGPT в реплицируемую лабораторию

3.1. Базовый сценарий работы: от первого запроса к устойчивой практике

Если забыть про все детали и технические термины, лаборатория без кода сводится к довольно простой процедуре. Такой простой, что её можно воспроизводить из проекта в проект, как рецепт.

Сначала ты один раз подготавливаешь конфигурационный файл в формате JSON. В нём зафиксирована структура архива — какие папки, какие служебные файлы. Зафиксирована политика изменений — никаких удалений, никаких переименований, только добавление. Прописано, как ChatGPT должен завершать каждую итерацию: обязательно назвать номер архива, перечислить изменения, описать ожидаемое содержимое zip. Этот файл ты сохраняешь себе. Один раз.

Потом ты запускаешь новый диалог в ChatGPT Plus, режим GPT-5.1 Thinking. В первом шаге загружаешь подготовленный JSON. И в текстовой части стартового сообщения кратко пишешь: "Используй загруженный JSON как регламент работы. Все шаги оформляй через архивы с описанной там структурой и политикой изменений". Всё. Дальше начинается совместная работа.

На первом этапе вы с машиной уточняете первые цели и начальный каркас архива. Что вообще этот проект? Историческое исследование? Продуктовая разработка? Учебный курс? Вы говорите об этом. Формулируется общая задача проекта. Уточняется, какие документы будут в DOCS, какие таблицы — в DATA, какие черновики — в NOTES. Пополняются описания в META. Может пройти час диалога, а может больше. Главное — вы оба понимаете, куда идёте.

После этого начинается содержательная итерация. Это может быть разработка набора понятий и их формализация в реестр. Может быть первичная разметка корпуса источников. Может быть построение сценариев, гипотез, сравнительных матриц. Может быть написание черновых или итоговых текстов. Важно, что в ходе этой работы машина не теряет структуру архива. Все изменения описываются так, словно архив уже существует и будет собран. Вот я добавил три новых строки в таблицу городов. Вот я написал вторую главу. Всё честно фиксируется.

Когда большой шаг завершён, ты явно просишь: "Считай эту итерацию завершённой. Опиши, как должен выглядеть архив 1". Машина, опираясь на JSON-регламент, должна указать номер итерации. Перечислить, какие файлы и таблицы считаются ключевыми. Описать, как выглядят служебные файлы META. Какие поля в VERSION, какие разделы в MANIFEST. Подчеркнуть, что старые данные не исчезают, а расширяются. Ты получаешь подробное описание.

После этого твоя задача — собрать zip-архив на своей стороне. Ты создаёшь каталог с подкаталогами META, DOCS, DATA, NOTES. Наполняешь их содержимым в соответствии с описанием машины. Упаковываешь в zip, например архив_01.zip. Сохраняешь как официальный снимок итерации. Это может занять десять минут, может час, но это просто механическая работа.

На следующий день, когда захочешь продолжить, ты открываешь новый чат. Загружаешь архив_01.zip. Загружаешь тот же JSON-регламент. В первом сообщении пишешь короткий бриф: "Это текущий снимок проекта; работай строго через него, соблюдая правила из JSON". Машина видит архив, понимает, где вы остановились, и дальше цикл повторяется. Анализ, уточнения, описание архива 2.

Так выстраивается ритм. Один крупный смысловой шаг — один архив. А JSON-регламент обеспечивает непрерывность логики между сессиями и проектами. Просто и честно.

3.2. Типовые сценарии применения

Хотя формат изначально выглядит техническим, его можно использовать в очень разных областях. От гуманитарных исследований до продуктовой разработки, от образования до внутренних процессов компании.

3.2.1. Исследовательские проекты: гуманитарные и социальные науки

В исследовательском контексте архивная схема позволяет делать вещи, которые раньше были почти невозможны с ChatGPT. Ты ведёшь корпус источников и их разметку в DATA. Таблицы событий, персонажей, текстовых отсылок. Может быть, средневековая торговля и названия городов. Или деятельность исторического деятеля. Или эволюция религиозных учений.

Фиксируешь интерпретации и их эволюцию в DOCS. Главы статьи, исследовательские заметки, выводы. А может быть, альтернативные интерпретации. Сохраняешь дискуссионные и гипотетические ветки в NOTES. Альтернативные датировки. Конкурирующие объяснения. То, что ещё не решено.

ChatGPT в таком режиме становится помощником по формулировке гипотез и сценариев. Инструментом систематизации и перекрестной сверки. Протоколистом, который в конце итерации описывает, какие новые сущности были введены, какие таблицы расширены, какие выводы написаны.

Реплицируемость обеспечивается тем, что другой исследователь может получить твой архив и JSON, загрузить их в собственный диалог и задать те же вопросы. Ведёт ли это к сходным структурам данных? К сходным выводам? Это проверяемо. Это научно.

3.2.2. Прикладные проекты: продукты, стратегии, процессы

Для продуктовых или управленческих задач архивная схема работает не хуже. В DOCS лежит видение продукта, концепции интерфейсов, описания пользовательских сценариев, стратегия внедрения. В DATA — сегментация аудитории, реестры функций, матрицы рисков, дорожные карты. В NOTES — списки гипотез, backlog задач, вопросы к команде.

ChatGPT здесь помогает разложить сложную идею на формальные сущности. Форматировать решения в табличном виде, для последующей передачи в другие инструменты. Поддерживать связность: не потерять связь между целями продукта, функциями и метриками.

JSON-регламент, в свою очередь, дисциплинирует и машину, и пользователя. Запрет на самопроизвольные перестройки структуры, требование описывать изменения. Это означает, что когда ты приходишь на следующий день к проекту, архив не выглядит иначе. Структура та же, только богаче.

3.2.3. Образовательные и методические проекты

В образовательном контексте архив можно использовать для постепенной сборки учебного курса. DOCS: лекции, планы семинаров, методические комментарии. Формирование банка задач, кейсов, контрольных вопросов в DATA. Хранение педагогических планов, заметок о группах, рефлексивных записей в NOTES.

ChatGPT-лаборатория в этом случае позволяет преподавателю итеративно уточнять структуру курса, не теряя промежуточных этапов. Упрощает передачу курса другому преподавателю — достаточно передать архив и базовую инструкцию по его использованию. Поддерживает воспроизводимость. Можно восстановить, как именно формировалось содержание, какие шаги были сделаны, почему именно так.

3.3. Репликация, ветвление и коллективная работа

Одно из ключевых преимуществ архивной схемы — возможность коллективного использования. Это то, что до сих пор почти невозможно с обычным ChatGPT.

Репликация. Любой участник может взять за основу определённый архив, например архив 4. Загрузить его вместе с JSON-регламентом. Повторить или модифицировать шаги, описанные в META и DOCS. Это создаёт базу для прозрачных повторяющихся экспериментов в гуманитарных и прикладных областях, где до сих пор такие практики крайне редки. Если один исследователь что-то сделал, другой может проверить, повторяя шаги.

Ветвление. На определённом этапе возможно осознанное расхождение трактовок или целей. Один исследователь продолжает линию архив 5, 6, 7. Другой, опираясь на тот же архив 5, создаёт альтернативную ветку архив 5-A, 6-A. При этом общая структура и формат сохраняются. Это позволяет сравнивать ветки не только по выводам, но и по истории шагов. Вот один исследователь интерпретировал так, другой — иначе. Видно, где они разошлись.

Коллективная работа. Разные участники могут взять на себя разные аспекты. Один концентрируется на DOCS — тексты, аргументация. Другой на DATA — таблицы, реестры. Третий на NOTES — методологическая рефлексия и планирование. ChatGPT, как единый ассистент, становится связующим элементом. Каждый участник может взаимодействовать с ним в отдельной сессии, опираясь на один и тот же архив и регламент. Потом результаты складываются.

3.4. Методологические следствия: ИИ как протоколируемый участник рассуждения

Использование ChatGPT в режиме лаборатории без кода меняет не только технику работы. Меняется методология.

ИИ перестаёт быть оракулом и становится протоколируемым участником. Вместо разрозненных ответов на случайные вопросы модель работает в рамках чётко описанного проекта. Использует стабильную структуру архива. Обязана фиксировать изменения и итоги итераций. Всё честно.

Фокус переносится с генерации ответов на управление пространством данных и текстов. Пользователь, даже не владея языками программирования, фактически проектирует схему данных в DATA. Задаёт онтологию и структуру аргументации в DOCS. Определяет политику работы в META. Это проектирование, а не просто просьбы к машине.

Появляется явная граница между человеческими решениями и работой модели. Человек отвечает за постановку задач, выбор источников, принятие методологических аксиом, утверждение или отклонение интерпретаций. ChatGPT отвечает за систематизацию, преобразование, формулировку текстов и предложений по структуре. Всё это отражается в архиве, который становится общим продуктом взаимодействия.

Усиливается ответственность за историю проекта. Архив фиксирует не только конечный результат, но и путь. Какие варианты рассматривались? Какие структуры данных были введены? Какие компромиссы и уточнения сделаны? Это повышает прозрачность и позволяет переосмысливать решения задним числом. Спустя год открыл архив 3 и вспомнил, почему тогда решил именно так.

3.5. Риски, ограничения и практические рекомендации

Наряду с преимуществами лабораторный подход накладывает и определённые требования.

Риск перегрузки регламентом. Слишком подробная спецификация может отпугнуть и пользователя, и модель. Практический вывод: начинай с минимального каркаса — META плюс один-два ключевых файла в DOCS и DATA. Постепенно усложняй структуру по мере необходимости. Не пытайся охватить все возможные случаи в первой версии JSON-регламента. Простота — это главное.

Риск забывания правил в длинной сессии. Даже мощная модель может со временем размывать следование внутренним инструкциям. Здесь помогает сознательная привычка периодически напоминать о регламенте: "Продолжай соблюдать правила из загруженного JSON и работать через архив". Или использование внутренних напоминаний в DOCS или NOTES — например, файла с кратким сводом правил для человека и машины.

Необходимость дисциплины при фиксации итераций. Легко увлечься содержательной частью и забыть зафиксировать номер текущего архива, список изменений, ожидаемую структуру zip. Практическое решение — сделать привычкой завершать крупные блоки работы формулировкой: "Считай, что эта итерация завершена. Опиши, как должен выглядеть архив N". Это займёт две минуты, но сэкономит часы позже.

Ограничения среды. На текущем этапе наиболее удобно подобный подход реализуется в ChatGPT Plus с режимом GPT-5.1 Thinking, благодаря поддержке загрузки файлов и высокой мощности модели. Полная автоматизация сборки zip и проверок остаётся за пределами модели и требует минимальных действий пользователя или внешних инструментов. Но даже без программирования пользователь может выстроить достаточно строгую и воспроизводимую процедуру. Это не идеально, но это работает.

3.6. Заключение: лаборатория без кода как новая норма работы с ИИ

Переход от спонтанных диалогов к формату архив плюс JSON-регламент делает взаимодействие с ChatGPT качественно иным. Проекты обретают форму в виде последовательности архивных снимков, а не бесконечной ленты сообщений. Результаты становятся переносимыми и воспроизводимыми. Их можно передать, воспроизвести, продолжить в другом контексте или другим человеком.

Роль пользователя усиливается. Он становится архитектором формата данных и правил, а не пассивным потребителем ответов. Возможность глубокой работы без программирования становится реальной. Всё, что нужно, это дисциплина в формулировке регламентов и привычка оформлять каждый шаг в виде архив-снимка.

В этом смысле ChatGPT выступает не просто как умный собеседник, а как универсальный, протоколируемый и реплицируемый лабораторный партнёр. При условии, что пользователь готов взять на себя задачу определения структуры, правил и ритма такой совместной работы. Это не сложно. Это просто требует привычки. Но результат того стоит.

AI_RULES.json — Яндекс Диск