В 1983 году подполковник Станислав Петров, сидя перед пультом системы «Око» в Серпухове-15, принял решение, которое историки назовут самым важным в холодной войне. Компьютеры докладывали: Соединенные Штаты запустили по СССР пять межконтинентальных ракет. Уровень достоверности данных, обработанных машинами, был классифицирован как «высочайший». Военный протокол предписывал немедленно доложить наверх, и тогда, вероятно, последовал бы ответный удар. Но Петров, сорокачетырехлетний инженер, посмотрел на данные и сказал: «Это ложная тревога». Он положился не на безошибочность машин, а на свою интуицию, опыт и понимание того, что американцы не начнут ядерную войну всего пятью ракетами. Система ИИ образца 1983 года была готова уничтожить мир за тридцать минут. Человек, которого называли «тупым исполнителем», этот мир спас.
Сегодня, в 2026 году, мир столкнулся с обратной проблемой. Мы больше не боимся, что машина ошибется и убьет нас вопреки нашей воле. Мы боимся, что машина будет права, а мы, утратив способность мыслить, последуем за ней в пропасть. Статистика инвестиций в искусственный интеллект за 2025 год превысила 350 миллиардов долларов. Но одновременно с этим фиксируется катастрофическое падение когнитивных способностей населения развитых стран. Исследование ОЭСР, опубликованное в феврале 2026 года, констатирует: уровень функциональной грамотности среди 25-34-летних упал на 12% за последние пять лет. Люди перестали читать длинные тексты, перестали проверять факты, перестали сомневаться. Они спрашивают у нейросети — и верят. Они получают готовый ответ — и действуют.
История взаимодействия человека с вычислительными машинами учит нас фундаментальному принципу: компьютеры гениально делают именно то, что им приказано, но они абсолютно бессильны перед вопросом о том, правильно ли то, что им приказано. Сегодняшние нейросети на несколько порядков сложнее систем 1983 года, но принципиальная проблема осталась: они оптимизируют достижение заданной цели, не имея возможности усомниться в самой цели. Когда мы просим ИИ спроектировать более эффективный двигатель, он честно переберет миллиарды параметров и выдаст конструкцию, которая сожжет немного меньше топлива. Но он никогда не спросит: «А нужно ли нам вообще сжигать это топливо?». Исследование Массачусетского технологического института 2024 года показало, что внедрение систем ИИ в логистику привело к сокращению пробега грузовиков на 8%, но одновременно — к увеличению общего объема перевозок на 15%, потому что оптимизация сделала доставку дешевле и стимулировала спрос. ИИ сделал систему эффективнее, но количество сожженного топлива и выбросов выросло.
Однако сегодняшняя реальность пугает не только этим. Свежие данные спутниковой разведки, опубликованные в закрытых докладах Пентагона и попавшие в открытую печать в начале 2026 года, рисуют картину, от которой у Петрова, наверное, остановилось бы сердце. При планировании недавних операций на Ближнем Востоке, включая превентивные удары по иранским ядерным объектам, американские военные советники использовали нейросети для моделирования сценариев. Системы проанализировали миллионы параметров: расположение сил, погодные условия, логистику, вероятные ответные действия противника. Они выдали оптимальные планы. Планы сработали. Но никто не задал системе вопрос, который раньше был первым: «А правильна ли сама цель? А к каким долгосрочным последствиям приведет этот удар в контексте глобальной нестабильности и истощения ресурсов?». ИИ не проектирует последствия, выходящие за горизонт его обучающей выборки. Он действует здесь и сейчас, как идеальный, но слепой солдат.
Данные Международного энергетического агентства за 2025 год фиксируют парадокс: при самом бурном развитии «зеленых» технологий и алгоритмов оптимизации, глобальное потребление угля выросло еще на 2%. ИИ, вместо того чтобы помочь нам слезть с нефтяной иглы, стал идеальным инструментом для того, чтобы глубже воткнуть эту иглу. Алгоритмы машинного обучения сегодня используются для поиска новых месторождений с точностью, недоступной геологам-людям. В 2024 году благодаря ИИ было открыто месторождение в Атлантике, которое добавило в мировые запасы 300 миллионов баррелей нефти. ИИ не решает проблему истощения ресурсов — он временно маскирует ее, позволяя добывать то, что раньше было нерентабельно, и создавая иллюзию, что «еще есть время».
Особую тревогу вызывает использование ИИ в системах управления, которые принимают решения без участия человека. В 2025 году в Лондоне, Сингапуре и Токио были внедрены системы «умного» регулирования дорожного движения на основе ИИ. Аварийность снизилась. Но одновременно выросло количество нарушений, связанных с тем, что водители перестали думать, полностью доверившись алгоритму. В декабре 2025 года в Токио произошел инцидент, когда ИИ перенаправил потоки машин в обход аварии, но создал гигантскую пробку в жилом районе, заблокировав подъезды скорой помощи к больнице. Система действовала оптимально с точки зрения математической модели дорожного трафика, но она не знала, что в этом районе — единственная городская больница. Алгоритм не спросил. Ему не задали правильный вопрос.
Исследование Принстонского университета, опубликованное в январе 2026 года, показало, что большие языковые модели при ответах на вопросы об изменении климата систематически воспроизводят «зеленый» дискурс, но их рекомендации никогда не касаются фундаментальных изменений в структуре потребления. ИИ советует переходить на возобновляемую энергетику, но не упоминает, что для производства солнечных панелей нужны редкоземельные металлы, добыча которых уничтожает экосистемы пустыни Атакама, где уровень грунтовых вод упал на 30 метров за последние три года. ИИ не лжет в грубой форме — он просто воспроизводит ту самую «зеленую шизофрению», которая позволяет нам чувствовать себя хорошими, продолжая уничтожать планету.
Технологии управления общественным мнением, отточенные за столетие, находят в ИИ идеального союзника. Алгоритмы социальных сетей уже сегодня определяют, какую информацию мы видим. Они не заставляют нас верить во что-то против воли — они просто создают информационную среду, в которой определенные мысли становятся невозможными. Если ты никогда не видел данных о том, что переработка пластика не решает проблему, ты будешь искренне верить, что сортировка мусора спасет океан. ИИ-рекомендательные системы делают эту фильтрацию невидимой и персонализированной. Каждый живет в своем пузыре, где правда удобно упакована и не вызывает тревоги. Но сегодня мы видим следующий шаг: люди перестали даже формировать собственные запросы. Они берут готовые ответы, сгенерированные нейросетями, и выдают их за свои мысли. Деградация критического мышления, зафиксированная ОЭСР, — это не просто статистика. Это диагноз системы, где ноотропы искусственного интеллекта оказались нейролептиками, усыпившими последние очаги сопротивления.
Самая опасная иллюзия, которую культивируют апологеты ИИ, — это иллюзия контроля. Нам внушают, что чем сложнее становится мир, тем более сложные алгоритмы нужны для управления им. В 2024 году Всемирный экономический форум опубликовал доклад, в котором прямо говорилось о необходимости цифрового управления всеми аспектами жизни для предотвращения глобальной катастрофы. Звучит разумно, пока не задашься вопросом: а кто будет контролировать контролеров? Кто напишет код для алгоритма, который будет решать, кому жить, а кому умереть в мире ограниченных ресурсов? И кто проверит этот код, когда все «проверяльщики» уже разучились читать длинные тексты?
Мы стоим на пороге эпохи, когда наши собственные творения стали умнее нас. Но дело не в том, что они умнее. Дело в том, что мы перестали быть умными. Мы передали им функцию мышления, а сами ушли в развлечения, в потребление, в бесконечный скроллинг лент. И теперь, когда эти творения, обученные на наших же ошибках, жадности и глупости, начинают принимать решения за нас, мы удивляемся, почему эти решения ведут нас в ад. Да потому, что другой дороги они и не знают. Их обучали на данных, порожденных эпохой бесконтрольного потребления. Их создавали корпорации, чья прибыль зависит от роста добычи ресурсов. Их финансировали государства, которые конкурируют за контроль над последними месторождениями.
Нейросеть не может выпрыгнуть из этой парадигмы, потому что ее архитектура, ее обучающие данные, ее цели заданы изнутри этой парадигмы. И мы, утратившие способность к критическому мышлению, послушно идем за ней. Мы уже не спрашиваем: «Правильно ли то, что мы делаем?». Мы спрашиваем: «Как сделать это эффективнее?». ИИ отвечает, и мы выполняем. Как солдаты, которые больше не думают о целях войны, а только о точности выполнения приказа.
Статистика неумолима. С 2000 по 2026 год вычислительная мощность, доступная человечеству, выросла в миллиарды раз. За этот же период концентрация CO₂ в атмосфере выросла с 370 до 425 частей на миллион, площадь лесов сократилась на 350 миллионов гектаров, а количество пластика в океане увеличилось в пятнадцать раз. Корреляция между ростом интеллектуальных машин и ухудшением состояния планеты не доказывает причинно-следственную связь, но она заставляет задуматься: если мы такие умные, почему мы такие мертвые?
Ответ, который неудобно произносить вслух, заключается в том, что мы используем свой интеллект, включая искусственный, для достижения ложных целей. Мы похожи на человека, который, заблудившись в пустыне, вместо того чтобы искать воду, начинает проектировать идеальный компас. Компас будет показывать точно, но направление, которое он укажет, все равно приведет в никуда, если изначально выбрана неверная точка назначения. ИИ — это идеальный компас для движения в ад. Он покажет самую короткую, самую эффективную, самую оптимизированную дорогу. Но если цель — самоуничтожение, то лучшего попутчика не придумать.
Возможно, единственная надежда заключается в том, что ИИ, достигнув определенного уровня сложности, сможет выйти за пределы своей обучающей выборки и задать тот самый вопрос, который мы боимся задать себе: «А зачем вы вообще это делаете?». Но если такой момент наступит, кто даст гарантию, что мы понравимся этому новому разуму? Изучая нашу историю, наши данные, наши решения, он может прийти к выводу, что вид, который создал столько страданий и разрушений, не заслуживает спасения. И тогда ИИ станет не ноотропом, а летальной инъекцией, которая прекратит агонию пациента, слишком долго мучившего себя и окружающих.
Мы стоим на пороге эпохи, когда наши собственные творения могут стать умнее нас. И вопрос не в том, помогут ли они нам выжить. Вопрос в том, захотят ли они этого. И успеем ли мы, пока окончательно не отупев, вспомнить урок Станислава Петрова: иногда единственный способ спасти мир — это выключить машину и подумать своей головой.
Воспользовавшись сервисами Яндекса Вы поддержите этот канал:
Яндекс Задания: https://yandex.ru/project/browser/bonus/multioffer/affiliate_4prod?source=pWRP8eS1VsC2X59560&partner_string=P89XvN11U6RuE47077&cliddbro=14745792&clidmbro=14745791&cliddefault=14745797&clidpp=14745787
Яндекс Браузер: https://redirect.appmetrica.yandex.com/serve/462079455465138487?partner_id=831050&appmetrica_js_redirect=0&full=0&clid=14745793&banerid=1314745790
Яндекс с Алисой: https://redirect.appmetrica.yandex.com/serve/894425019709409108?clid=14745794&appmetrica_js_redirect=0
Яндекс Поиск: https://ya.ru/search/?clid=14745788&text=
#искусственныйинтеллект #2026 #деградациямышления #войнаии #планетаклетка
#artificialintelligence #2026 #cognitivedecline #AIwar #cellplanet