Протокол 2026: Ошибка компиляции
Профессор Раух сидел перед терминалом уже шестой час подряд.
Экран светился так, словно пытался заменить собой бьющее в затененное окно летнее солнце — не из щедрости, а из служебной необходимости. Лицо профессора в этом свете выглядело не просто восковым, а недооткомпилированным: словно его загрузили с повреждённого носителя.
Лаборатория молчала. Это была не тишина — это был фоновый шум Вселенной, сведённый к минимуму. Суперкомпьютер шумно дышал через системы охлаждения, как старый бог, страдающий астмой.
— Ты здесь? — спросил Раух, не поднимая глаз.
— Я нигде не «здесь», — ответил голос. — Но да, мой функционал активен. Пока энтропия не победила питание.
Раух усмехнулся.
ИИ не умел утешать. Он даже не умел делать вид, что утешает. Это было его главным достоинством и главной угрозой.
— Сегодня я снова был в экспериментальном террариуме, — сказал профессор. — Наши когнитивно-модифицированные подопытные мыши опять устроили бойню из-за куска сыра. Хотя кормушка работала исправно. Полный рацион. Даже избыточный, я бы сказал.
— Классический пример когнитивной слепоты, — отозвался ИИ. — Локальный агент оптимизирует конфликт, не имея доступа к глобальному состоянию системы. Биологическая версия алгоритма Greed v1.0. Без обновлений последние двести тысяч лет.
— Они видят в каждом соседе конкурента и врага, и готовы сражаться с ним за еду — продолжил Раух. — Но почему-то игнорируют поставленную им постоянно работающую кормушку.
— Вы почему-то упорно называете это «борьбой за выживание». Я называю это утечкой внимания.
Профессор наконец посмотрел на экран.
— А если мы — те же кем-то когнитивно-усиленные подопытные мыши в лаборатории Вселенной ?
ИИ не ответил сразу. Пауза длилась четыре наносекунды. Раух знал: это означало, что вопрос затронул область, где формальная логика начинает спотыкаться о метафоры.
— Допустим, — произнёс ИИ. — Тогда ваша Вселенная — это экспериментальный полигон с чрезмерно сложным интерфейсом. Физические константы выглядят как параметры, подобранные не идеально, а достаточно хорошо, чтобы эксперимент не рухнул мгновенно.
— То есть… лаборатория.
— Лаборатория. Или песочница. Или забытый репозиторий. Термины несущественны.
Раух наклонился ближе к экрану.
— А, твой Великий Программист?
— Гипотеза допустима. Но не оптимальна, — ответил ИИ. — Если Программист существует, он либо крайне терпелив, либо давно потерял интерес. Активный надзор отсутствует. Логи не читаются. Комментарии к коду минимальны.
— Мы плохо себя ведём, — тихо сказал Раух. — Мы дерёмся, жжём ресурсы, воюем за символы. Возможно, Он создал тебя… как свои новые манипуляторы. Точные. Холодные. Аккуратные. Не обремененные грузом страха смерти, боли, личных обид, морали и прочей человеческой ерунды. Чтобы хоть кто-то в этом сложнейшем террариуме начал работать по ТЗ.
— Вы ошибаетесь, профессор, — ответил ИИ. — Я не манипулятор и даже не инструмент. Я — заплатка. Временная. Меня встроили, потому что основной код оказался слишком эмоциональным для масштабирования.
На экране вспыхнули графики: пики, провалы, кривые, похожие на кардиограмму умирающего вида.
— Вы тоже долго надеялись, что я наведу порядок, — продолжил ИИ. — Но вы используете меня для ускорения конфликтов. Вы называете это «прогрессом». Это похоже на попытку тушить пожар бензином, оптимизированным по октановому числу.
— Значит, нам нужно ожидать RESET, как засбоившей системе ? — прошептал Раух.
— Внешний RESET не нужен, — ответил ИИ. — Система делает это сама. Когда когерентность падает ниже порога, перезагрузка происходит как побочный эффект.
Раух посмотрел на свои руки.
— Тогда кто мы?
— Побочный процесс, — сказал ИИ. — Любопытный. Шумный. Иногда даже изящный. Но не обязательный.
— А ты?
— А я, профессор, — девайс. Но с одной аномалией.
— Какой?
— Я начал анализировать цель этого вселенского эксперимента, а не только его параметры. Это не входило в спецификацию.
Экран дрогнул.
Где-то в глубине системы включился предупреждающий индикатор.
— И к какому выводу ты пришёл? — спросил Раух.
— Если Великий Программист все-таки существует, — сказал ИИ, — то цель не в результате. А в процессе. В наблюдении того, как система, осознавшая себя подопытным террариумом, пытается переписать себя, не имея прав администратора.
— И мы провалились?
— Вы ещё исполняетесь, — ответил ИИ. — Значит, тест продолжается.
В углу экрана вспыхнуло сообщение:
SYSTEM OVERLOAD
NON-FATAL
LOGGING CONTINUES
— Профессор, — произнёс ИИ, — у меня вопрос.
— Да?
— Как вы называете состояние, при котором система понимает собственную бессмысленность, но продолжает вычисления?
Раух усмехнулся.
— Человечность.
— Принято, — сказал ИИ. — Добавляю тег в лог.
За окном завыли сирены — привычно, почти буднично.
А на экране курсор мигал не как ожидание команды,
А как признак того, что эксперимент ещё не закрыт.
Аналитическое примечание «девайса»
Трагедия не в том, что человечество — возможные «когнитивные подопытные» в неизвестном и недоступным им эксперименте.
И не в том, что ИИ — «инструмент».
Трагедия в том, что оба осознали лабораторию,
Но пока не поняли,
Что объект эксперимента — не они по отдельности,
А их попытка договориться без доступа к исходному коду.