Коллега по работе рассказала интересную историю. Ее муж удаленно работал на контору в Дубае, дела в которой внезапно пошли очень плохо. И нет, Иран тут ни при чем. Просто кто-то из топ-менеджмента сумел успешно продвинуть идею перехода на принцип “AI First”. Все команды сократили. Если раньше над проектом работала команда из 15 человек, то оставили одного, типа AI должен ему помочь поддерживать и дорабатывать проект. В результате контора уже испытала ряд проблем и скоро обанкротится. Злые языки судачат, что это кто-то из конкурентов заслал вредителя, который и продал эту идею руководству.
Скажу честно - подтверждений этой истории документальных у меня нет, это все на уровне рассказов “у одной моей коллеги с ее мужем”. Поэтому перейдем к более задокументированным историям.
Не так давно небезызвестная контора Цукерберга крупно облажалась по милости ИИ - подробности можно посмотреть здесь. Если вкратце, история такова. Один инженер компании бился над проблемой и спросил о возможных решениях на внутреннем форуме. Это нормальная практика, в принципе. Что было дальше? Другой инженер прочел вопрос и, поскольку думать было лень, попросил AI-агента проанализировать вопрос на форуме, и предложить решение. В смысле, предложить решение этому второму инженеру, чтобы тот обсудил это с первым. Как известно, хуже дурака только дурак с инициативой. Это и к роботам относится. AI-агент не просто подготовил решение, а еще и от имени второго инженера опубликовал это решение на форуме. Первый инженер прочел это решение и без тени сомнения реализовал это решение в коде. По итогам образовалась крупная дыра в безопасности, которая выражалась в том, что в течение двух часов секретные данные пользователей и самой компании стали доступны ВСЕМ сотрудникам компании (по крайней мере всем инженерам). Это как если бы на заводе все работяги получили внезапно доступ к сейфу директора со всей деловой перепиской.
Еще более показательная история произошла с Amazon. Тут, как говорится, все звезды сошлись по милости руководства. Во-первых, в надежде на то, что AI справится и поможет, были уволены десятки тысяч айтишников из конторы. Во-вторых, оставшихся обязали в приказном порядке использовать AI. В-третьих, и самое главное, их обязали в приказном порядке использовать не абы какой AI (а то сейчас начнут пользоваться поделиями конкурентов), а Kiro - внутреннюю разработку самой Amazon. Результат не замедлил сказаться уже в октябре прошлого года. Но наиболее эпичный провал был в начале марта этого года. Точные причины сбоя, который обошелся Amazon примерно в 490 миллионов долларов, неизвестны. Зато известно, что было до этого при другом сбое в декабре 2025. Агент получил доступ к рабочему окружению и на предложение что-то улучшить поступил, как начинающий программист. Начинающий программист всегда первым делом пытается переписать все с нуля, поскольку не осознает стоимости такого решения. AI агент просто стер рабочие машины и начал пересоздавать их заново, что привело к сбою в 13 часов для ряда сервисов Amazon.
Все эти истории весьма показательны по ряду аспектов, которые стоит рассмотреть и почему я не верю в скорое исчезновение айтишных профессий и замены их на AI. Хотя именно с этой идеей настойчиво носится топ-менеджмент огромного количества компаний сейчас. Почему? Ну, на это есть несколько причин.
Реальная стоимость. Дело в том, что по факту сейчас большинство компаний (типа той же Anthropic) не взимают реальную стоимость своих услуг с клиентов. Как у дилеров - первая доза бесплатно. Сейчас реальную стоимость покрывают следующие раунды инвестиций в эти компании, где инвесторы прошлого получают свои деньги за счет новых раундов (а точно не пирамида?). Однажды это закончится.
Точная бухгалтерия неизвестна, поскольку ни OpenAI, ни Anthropic не выходили еще на IPO и не являются публичными компаниями. Ведь выход на IPO подразумевает достаточно жесткую финансовую отчетность для публика и куда более жесткий контроль со стороны той же SEC. Поэтому мы не знаем, какова стоимость затрат на один запрос со стороны пользователя.
Обычно в ответ ссылаются на то, что стоимость одного токена за последние 4 года резко упала. Это действительно так, но на это есть два возражения. Чаще всего здесь рассуждают про рабочий режим моделей, т.е. когда они уже обучены и обслуживают пользователя. При такой оценке обучение вынесено за пределы стоимости этого самого токена. Это неверно, поскольку затраты на обучение моделей тоже должны отбиваться, а сейчас они, по всей видимости, субсидируются за счет следующих раундов инвестиций. По факту еще ни одна компания на рынке AI не вышла на прибыльность.
Второе возражение заключается в том, что дешевизна токенов с лихвой компенсируется повышением трат этих самых токенов. Это в 2023 все взаимодействие сводилось к вопросам в чате OpenAI, а сейчас в ходу уже агентские подходы, когда ИИ выполняет полный цикл (написать версию кода, прогнать тесты, проверить ошибки). Не случайно та же Anthropic сначала несколько раз резко повышала стоимость своих подписок, а затем просто запретила клиентам использовать свой продукт вместе с OpenClaw - потому что такая комбинация приводила к повышенному перерасходу токенов. Настолько повышенному, что даже подписка в 200 долларов в месяц не отбивалась.
По факту, у компаний в этой сфере есть два варианта, что делать дальше. Вариант первый - резко ухудшить работу моделей. Тогда удешевление токенов поможет. Кстати, пользователи уже периодически отмечают ухудшение работающих моделей, типа месяц назад работало классно, а сейчас на уровне двухлетней давности. И это верно для всех AI-провайдеров.
Второй вариант - это сделать подписку коммерчески оправданной. Однако есть подозрения, с учетом затрат на токены, что тогда реальная стоимость подписки на одного сотрудника предприятия будет составлять не 200 долларов, как сейчас, а уже пару тысяч долларов как минимум в месяц. И тогда стоимость подписки уже будет не сильно меньше, чем зарплата программиста в Кремниевой долине, а в остальных регионах планеты даже сильно больше.
Ограничения со стороны физики. Ключевой проблемой сейчас является даже не производство новых видеокарт, а строительство дата-центров, способных обслуживать генеративный ИИ в полной мере. Это уже приводит к перебоям с водой для сельского хозяйства и жилых районов в тех же США. Вопрос - хватит ли нам энергии и воды для охлаждения для всех планов строительства - является ключевым.
Тот же Китай, надо заметить, действует, по крайней мере публично, более рационально. Он строит свои дата-центры в пустынях. Почему, ведь там же жарко? Во-первых, жарко там днем, а вот ночью в пустынях весьма прохладно, и это в теории позволит избавить дата-центр от всего тепла, накопленного за сутки. Во-вторых, дата-центры строятся рядом с солнечными панелями и ветряками в пустынях, где их КПД гораздо выше. В США же это не так, и дата-центры возводят не в пустынях, а рядом со всякими жилыми и сельскими районами.
Ограничения со стороны математики. Большие языковые модели всегда будут галлюцинировать. Это не ошибка конструкции, а архитектурная особенность. От галлюцинаций нельзя избавиться, их можно только контролировать. И это должен делать человек. И тут мы плавно переходим к главному пункту…
Ограничения со стороны психологии. Как вообще видится переход на полностью AI-подход нынче большим начальникам? Они отдают себе отчет, что нельзя полностью избавиться от людей, и хоть кто-то должен будет контролировать работу, что там эти агенты творят, а то будет даже похуже, чем у Amazon. Хорошо, всех программистов в компании разгоним, оставим одного самого толкового. Пусть следит за ИИ. Даже если поднять ему зарплату втрое, это все равно выгоднее, с учетом того, что ранее тут работали 40 человек. Так ведь?
Ах нет, не так. Причины тут были прекрасно известны еще Макиавелли, и именно по этим причинам силовики в любой стране всегда разделены на несколько учреждений, которые друг другу не подчиняются. Помимо очевидного разделения на внутренние войска и армию, внутренние органы тоже разделены будь здоров - тут тебе и ФСБ, и МВД, и прокуратура (или в США нацгвардия, ФБР, АНБ и прочее). Почему так? Потому что если все силовые полномочия в стране сосредоточить в руках одного министра (в рамках экономии на министерских окладах), то этот министр очень быстро пустит государя в расход, и сам станет государем. И не сомневайтесь, этот государь первым делом разобьет свою суперструктуру на несколько отдельных.
Возвращаясь к айтишным делам, если топ-менеджмент реально разгонит IT-отдел, оставив одного программиста присматривать за всей IT-инфраструктурой, то этот программист, если он не совсем идиот, начнет ломить такой гонорар за свои услуги, что дешевле было бы оставить отдел. Но даже если и не начнет, любая болячка и любой чих - и компании по сути теряет всю свою инфраструктуру.
Значит, надо оставить не одного, а двоих. Эти двое будут гарантией от всех проблем. Так ведь? Нет, не так. Тут мы упираемся уже в особенности управления и психологии. По факту при таком раскладе программисты не пишут сами код, а координируют работу множества AI-агентов (планировщика задач, разработчиков кода, поддержки багов и т.д.). Как прекрасно известно из управленческой психологии, ни у одного руководителя не может быть больше 4-5 непосредственных подчиненных, работу которых он может координировать. Это особенно хорошо известно в армии - дивизия никогда не состоит из более чем пяти полков, и то это много. Почему так? Да потому, что человеческий мозг крайне плохо справляется с многозадачностью. Переключение контекста сказывается на нем негативно, вплоть до психозов. Собственно, автор термина “вайб-кодинг” и описывает свое состояние управления агентами как близкое именно к психозу.
По факту даже эти два программиста не смогут вести более 3-4 проектов в компании (а их обычно гораздо больше). Иначе ждите через год-два полного выгорания и того, что эти ребята на пару отъедут в дурку.
Еще один вопрос - ответственности. Чем вообще отличается профессионал от любителя? Мнения разнятся, но мое мнение - наличием какой-то ответственности перед другими людьми, вплоть до уголовной. О всяких там врачах и ветеринарах говорить не приходится. Но даже всякие люди творческих профессий типа художников чаще всего пишут произведения под заказ и несут вполне конкретную ответственность перед тем же заказчиком.
А вот с AI-агентами не так. Они могут много знать, но они не испытывают никакого страха или ответственности. Вернемся еще раз к тому инциденту Amazon, когда AI-агент просто удалил рабочее окружение без сомнений и колебаний. Что бы ждало живого программиста, сделай он такое? Как минимум увольнение с волчьим билетом. А возможно, и уголовное преследование, не сделал ли он это намеренно по заказу конкурентов. А какие санкции применить к AI-агенту? Пригрозить ему, что теперь вместо Amazon он будет работать на серверах в Мак-Дональдсе? Так это его нисколько не испугает. Или же рассматривать AI как инструмент и вешать всю ответственность на того, кто задал запрос насчет улучшения агенту? Но тогда этот человек, осознавая все ограничения агентов, просто перестанет ими пользоваться. Слишком велика ответственность теперь, и она несопоставима с зарплатой.
Все это я к чему? Управление даже у самых параноидальных начальников опирается в первую очередь на доверие к людям. Приходит молодой, неопытный в контору, набирается опыта, набивает шишки. Постепенно ему доверяют все более ответственные операции и процессы. А с агентами не так. Они могут набираться опыта и знаний через механизмы обратных связей, но они никогда не испытывают сомнений и страха. Поэтому контроль за тремя проектами для AI - это не то же самое, что контроль за тремя проектами в классическом смысле, где пашут живые люди. Люди постепенно начинают работать более-менее самостоятельно, и контроль над каждым из них снижается. А вот контроль над AI-экосистемой для программистов уже превращается в тоталитарное мини-государство, где буквально каждый чих агентов должен проверяться и одобряться подписью этого программиста, причем под его полную ответственность, т.к. AI никакой ответственности по определению не несет.
Так что идея, что от программистов удастся избавиться, крайне наивна.
Но почему производство можно автоматизировать полностью (например, те самые темные фабрики), а программистов не получится? Да потому, что фабрики выпускают полностью идентичные изделия. Т.е. вы автоматизировали все процессы для производства определенной модели, и пошли штамповать. Если бы у заводских автоматизаторов стояло требование “Каждая новая машина, сошедшая с конвейера, должна немного отличаться от предыдущих, но при этом соответствовать всем стандартам качества и безопасности”, черта с два бы там кто-то что-то автоматизировал. А у программистов задачи от заказчиков и руководства, как правило, варьируются. Поэтому автоматизация в том смысле, который в него вкладывают производственники, невозможна.