И нам нужно относиться к нему именно так.
Как и многие другие, мне приходилось помогать друзьям, которые были зависимы от разрушительных веществ. В медиа зависимость обычно изображают неправильно. На деле наркозависимые люди чаще всего прекрасно функционируют и идеально вписываются в общество. Вы можете пройти мимо такого человека на улице и даже не заподозрить, что что-то не так. Но их зависимость разъедает их изнутри, разрушая их способности, мышление и благополучие.
«История в деталях» — телеграм канал для тех, кто любит видеть прошлое без прикрас, через неожиданные факты и забытые мелочи. Погружайтесь в историю так, как будто вы там были. Подписывайтесь!
И всё же они убеждены, что им нужны эти вещества, чтобы выжить, и готовы на олимпийские рекорды по ментальной гимнастике, чтобы оправдать своё употребление.
«Мне это нужно, чтобы работать усерднее»,
«Меня это расслабляет»,
«Я использую только когда надо» —
это не оправдания, а отчаянные попытки закрепить разрушительный пластырь вместо того, чтобы признать настоящую проблему. Часто причина в том, что эта настоящая проблема находится вне зоны контроля человека.
Когда проходишь через такую ситуацию несколько раз, начинаешь видеть, как один и тот же паттерн оправданий и отрицания повторяется снова и снова.
Но я никак не ожидал увидеть точно такую же модель в исследовании об ИИ.
Доктор Ребекка Хайндс и доктор Боб Саттон собрали опыт более чем ста руководителей, технологов и учёных, чтобы создать «план, который поможет добиться успеха с ИИ». Но читается всё это как речь зависимого, который одновременно признаёт ущерб, но отчаянно защищает своё употребление на собственном «интервеншне».
Прочитав этот отчёт, я понял: к ИИ нужно относиться как к тяжёлому наркотику.
Сейчас объясню почему.
Отчёт, написанный с явным конфликтом интересов
«План» был опубликован в новом отчёте Work AI Institute — исследовательской организации, управляемой компанией Glean AI, создателем генеративных бизнес-решений.
Уже тут — конфликт интересов. В лучшем случае Work AI Institute выглядит как очередной отраслевой «think tank», созданный для нужд индустрии.
Но даже несмотря на возможную предвзятость, руководитель исследования доктор Хайндс признала разрушительные выводы о применении ИИ на рабочем месте. В исследовании и в собственном резюме она пишет:
Когда работники используют ИИ,
«часто возникает иллюзия, что у них больше компетенций и навыков, чем есть на самом деле».
То есть офисные сотрудники чувствуют себя умнее и продуктивнее, но при этом их базовые навыки активно деградируют.
Также было установлено, что если ИИ используется как замена человеческому суждению, он делает работу пустой, обезличенной и отчуждающей.
В итоге отчёт заключает, что ИИ может создавать либо когнитивный дивиденд, либо когнитивный долг:
- если ИИ помогает эксперту и дополняет его навыки, он экономит время и «обостряет» суждение — дивиденд;
- если ИИ служит сокращённым путём — автоматизация, увеличение нагрузки, сокращение штата — он размывает способности работников и вызывает ложную уверенность — долг.
И хотя анализ когнитивного долга звучит убедительно, дихотомия «когнитивного дивиденда» вызывает у меня флэшбеки из «Волка с Уолл-стрит» — грудные расколачивания и ритмичное бормотание.
Независимые исследования говорят противоположное
Множество независимых исследований — например, METR — показали, что ИИ замедляет работу экспертов. Они тратят больше времени на исправление ошибок ИИ, чем ИИ экономит им.
Кроме того, исследования JYX и Carnegie Mellon показали, что эксперты тоже теряют ключевые навыки и критическое мышление (то есть способность к суждению), когда используют ИИ.
Фактически, многие исследования демонстрируют, что рабочий ИИ ухудшает психологическое состояние сотрудников — а значит и их профессиональные возможности.
Так что нет — эксперты не получают «дивиденда» в виде времени и мудрости.
Наоборот: они страдают от такого же, если не большего, атрофирования навыков, чем сотрудники, использующие ИИ как костыль.
И самочувствие у обеих групп ухудшается.
В одном дыхании это исследование признаёт колоссальный когнитивный ущерб от ИИ, а в другом пытается загазлайтить читателя, что, мол, всё это не произойдёт — «если использовать правильно».
Учитывая, откуда пришло исследование, это похоже на дилера, который вручает своему лучшему клиенту шпаргалку, как оправдать своё употребление на встрече с родственниками.
Но эта шпаргалка уровня:
«Да нет, всё нормально. Я только немного мета принимаю, чтобы быстрее убраться в доме».
Во-первых, ты всё равно принимаешь мет. Он разрушает тебя.
Во-вторых, проблема, которая заставляет тебя тянуться к этому, вероятно, никак не связана с уборкой.
Это всё тот же паттерн оправданий и отрицания.
Но, как и зависимый человек, исследование проговаривается
Доктор Хайндс говорит, что руководители часто усугубляют проблему иллюзии экспертизы, оценивая сотрудников по тому, как часто они используют ИИ. Это считается маркером «адаптации ИИ» и производительности.
Такое давление создаёт когнитивный долг — оно не только разрушает навыки, но и лишает сотрудников возможности учиться и развивать реальные компетенции.
Поэтому, по её словам, нужно оценивать не «частоту использования ИИ», а реальные результаты.
Также она советует использовать ИИ только в пределах экспертизы сотрудника и не отдавать на автоматизацию задачи, требующие человеческого суждения и творчества.
Звучит мудро… но это обход вокруг истинной проблемы.
Настоящая причина проста: ИИ почти никогда не даёт позитивного результата
Руководители не меряют реальную пользу ИИ, потому что:
- McKinsey (при всей своей лояльности к индустрии ИИ) обнаружил, что 80% пилотных проектов ИИ не дают положительного влияния на бизнес;
- MIT выяснил, что 95% ИИ-пилотов не приносят прибыли, а многие снижали производительность.
То есть, если измерить эффект честно — проект провалится.
Также всё больше данных показывает, что работа с ИИ в рамках своей экспертизы не ускоряет, а замедляет.
А задач, которые не требуют человеческого суждения и творчества, практически нет.
Даже «простая» бухгалтерия требует критического мышления.
И, как показало исследование JXT, сотрудники, использующие ИИ, рискуют серьёзной эрозией навыков, которая будет иметь разрушительные последствия в будущем.
Иными словами, условия, при которых генеративный ИИ действительно приносит пользу, исчезающе малы.
Но корпорации это знают — и всё равно продолжают.
Почему? Потому что корпоративная зависимость — часть системной болезни
Вы уже знаете ответ.
Это эншитификация.
Это разрушительные массовые увольнения ради временного роста прибыли.
Это спекуляции акциями вместо реального здоровья бизнеса.
Это превращение всего и всех в товар.
Это ненасытная корпоративная жадность.
Это извлечение богатства вместо создания ценности.
Каждый из нас чувствует это ежедневно.
И поэтому никого не удивляет, как ИИ применяется против наёмных работников.
К слову — вступайте в профсоюз.
Но это также объясняет, почему так много зависимых людей изначально обращаются к наркотикам:
- чтобы справиться с давлением в разрушенной экономике,
- чтобы соответствовать нереалистичным ожиданиям,
- чтобы как-то выдержать стресс.
Да, тяжёлые наркотики дают иллюзию, что помогают.
Но цена огромна:
они разрушают здоровье, интеллект, благополучие.
Те же структурные силы, что порождают химическую зависимость, теперь создают корпоративную зависимость от ИИ.
И эта зависимость разрушает умы, способности и психику тех, кто вынужден под неё подстраиваться.
И снова о контексте: кто оплатил исследование?
Исследование создано институтом, который принадлежит и финансируется платформой генеративного ИИ для работы.
Я уверен, что доктор Хайндс — прекрасный учёный и не заслуживает критики.
Но контекст важен.
В нашей аналогии: это исследование — написано «дилером», и объясняет зависимому, как оправдать своё разрушительное употребление перед встревоженной семьёй.
И это не просто удобная метафора.
Мне кажется, что генеративный ИИ действительно нужно рассматривать как тяжёлый наркотик.
Не потому что он такой мощный, а потому что он настолько разрушителен для психики и когнитивных способностей.
ИИ не создан, чтобы быть точным. Он создан, чтобы казаться приятным
Генеративный ИИ никогда не сможет быть инструментом точных ответов.
Его задача — статистически угодный текст, а не истина.
Он не думает.
Он не знает.
Он — некомпетентное зеркало нашего собственного высокомерия, создающее микроскопическую эхо-камеру для одного человека.
Когда компания внедряет ИИ, это похоже на то, как армии США и нацистской Германии пичкали солдат метамфетамином
Да, это может помочь «пройти тяжёлый период».
Да, может выглядеть как крутая PR-история.
Но это разрушает человеческие ресурсы организации до основания.
И, как те солдаты, многие сотрудники не дают согласия — их запугивают или принуждают.
Зависимы не работники.
Зависимы руководители, которые используют эти инструменты, чтобы выжать из людей больше — в ущерб самим людям.