Найти в Дзене
DigEd

Усталость от ИИ — это реальность, и никто об этом не говорит.

Автор Сиддхант Кхаре В прошлом квартале я выпустил больше кода, чем за любой другой квартал в моей карьере. В то же время я чувствовал себя более истощенным, чем за любой другой квартал в моей карьере. Эти два факта неразрывно связаны. Я зарабатываю на жизнь созданием инфраструктуры для ИИ-агентов. Я один из основных сопровождающих OpenFGA (CNCF Incubating), я создал agentic-authz для авторизации агентов, я создал Distill для дедупликации контекста, я выпустил серверы MCP. Я не просто занимаюсь ИИ в свободное время. Я глубоко погружен в него. Я создаю инструменты, которые другие инженеры используют для работы ИИ-агентов в продакшене. И все же я столкнулся с препятствием. С таким истощением, которое не смогли устранить никакие инструменты или оптимизация рабочих процессов. Если вы инженер, который ежедневно использует ИИ — для анализа проектов, генерации кода, отладки, документации, принятия архитектурных решений — и заметили, что почему-то устаёте больше, чем до появления ИИ, этот пост
Оглавление

Вы используете ИИ для повышения продуктивности. Так почему же вы чувствуете себя более измотанным, чем когда-либо? Парадокс, с которым приходится сталкиваться каждому инженеру.

Автор Сиддхант Кхаре

В прошлом квартале я выпустил больше кода, чем за любой другой квартал в моей карьере. В то же время я чувствовал себя более истощенным, чем за любой другой квартал в моей карьере. Эти два факта неразрывно связаны.

Я зарабатываю на жизнь созданием инфраструктуры для ИИ-агентов. Я один из основных сопровождающих OpenFGA (CNCF Incubating), я создал agentic-authz для авторизации агентов, я создал Distill для дедупликации контекста, я выпустил серверы MCP. Я не просто занимаюсь ИИ в свободное время. Я глубоко погружен в него. Я создаю инструменты, которые другие инженеры используют для работы ИИ-агентов в продакшене.

И все же я столкнулся с препятствием. С таким истощением, которое не смогли устранить никакие инструменты или оптимизация рабочих процессов.

Если вы инженер, который ежедневно использует ИИ — для анализа проектов, генерации кода, отладки, документации, принятия архитектурных решений — и заметили, что почему-то устаёте больше, чем до появления ИИ, этот пост для вас. Вам это не кажется. Вы не слабак. Вы переживаете нечто реальное, что индустрия агрессивно отрицает. И если человек, который занимается разработкой инфраструктуры агентов на полную ставку, может выгореть из-за ИИ, это может случиться с кем угодно.

Я хочу поговорить об этом честно. Не в версии «ИИ — это потрясающе, и вот мой рабочий процесс». В реальной версии. В той, где вы смотрите на свой экран в 11 вечера, окружённые сгенерированным ИИ кодом, который вам ещё нужно проверить, и задаётесь вопросом, почему инструмент, который должен был сэкономить вам время, отнял у вас весь день.

Парадокс, о котором нас никто не предупреждал

Вот что на некоторое время сломало мне мозг: ИИ действительно ускоряет выполнение отдельных задач. Это не ложь. То, на что раньше у меня уходило 3 часа, теперь занимает 45 минут. Составление проектной документации, разработка нового сервиса, написание тестовых сценариев, исследование незнакомого API. Всё быстрее.

Но мои дни стали сложнее. Не проще. Сложнее.

Причина проста, если её увидеть, но мне потребовались месяцы, чтобы её понять. Когда каждая задача занимает меньше времени, вы не делаете меньше задач. Вы делаете больше задач. Ваша производительность, кажется, расширяется, поэтому работа расширяется, чтобы её заполнить. И даже больше. Ваш менеджер видит, что вы быстрее выпускаете продукты, поэтому ожидания корректируются. Вы видите, что сами быстрее выпускаете продукты, поэтому ваши собственные ожидания корректируются. Базовый уровень смещается.

До появления ИИ я мог потратить целый день на одну проектную задачу. Я делал наброски на бумаге, думал в душе, шёл на прогулку, возвращался с ясностью. Темп был медленным, но когнитивная нагрузка была управляемой. Одна задача. Один день. Глубокая концентрация.

Сейчас? Я могу решать шесть разных задач в день. Каждая из них «занимает всего час с ИИ». Но переключение между шестью задачами невероятно затратно для человеческого мозга. Искусственный интеллект не устает между задачами. А я устаю.

В этом парадокс: ИИ снижает стоимость производства, но увеличивает стоимость координации, проверки и принятия решений. И эти затраты полностью ложатся на человека.

Вы стали рецензентом, хотя и не подписывались на это.

-2

До появления ИИ моя работа заключалась в следующем: обдумать проблему, написать код, протестировать его, выпустить. Я был создателем. Творцом. Именно это в первую очередь привлекло большинство из нас к инженерии — сам процесс создания.

После появления ИИ моя работа все больше сводилась к следующему: подсказать, подождать, прочитать результат, оценить результат, решить, правильный ли результат, решить, безопасный ли результат, решить, соответствует ли результат архитектуре, исправить несоответствующие части, снова подсказать, повторить. Я стал рецензентом. Судьей. Инспектором качества на конвейере, который никогда не останавливается.

Это принципиально другой вид работы. Создание заряжает энергией. Проверка истощает. Есть исследования на эту тему — психологическая разница между задачами, генерирующими результаты, и задачами, оценивающими результаты. Генеративная работа приводит к состоянию потока. Оценочная работа вызывает усталость от принятия решений.

Я впервые заметил это на той неделе, когда активно использовал ИИ для нового микросервиса. К среде я уже не мог принимать простые решения. Как назвать эту функцию? Мне было все равно. Где должна находиться эта конфигурация? Мне было все равно. Мой мозг был переполнен. Не написанием кода, а его проверкой. Сотни мелких проверок, целый день, каждый день.

Жестокая ирония заключается в том, что сгенерированный ИИ код требует более тщательной проверки, чем код, написанный человеком. Когда коллега пишет код, я знаю его шаблоны, его сильные стороны, его слепые пятна. Я могу бегло просмотреть те части, которым доверяю, и сосредоточиться на тех, которым не доверяю. С ИИ каждая строка вызывает подозрение. Код выглядит уверенно. Он компилируется. Он может даже пройти тесты. Но в нем могут быть скрытые ошибки, которые проявляются только в продакшене, под нагрузкой, в 3 часа ночи.

Поэтому приходится читать каждую строку. А чтение кода, который ты не писал, сгенерированного системой, которая не понимает историю твоей кодовой базы или соглашения твоей команды, — это изнурительная работа.

Вот почему я считаю, что безопасность и авторизация агентов так важны. Если мы не можем проверять всё, что создаёт ИИ — а мы не можем, по крайней мере, в больших масштабах — то нам нужны системы, которые ограничивают возможности агентов в первую очередь. Доступ с минимальными привилегиями, токены с ограниченной областью действия, журналы аудита. Чем меньше вам приходится беспокоиться о том, «сделал ли ИИ что-то опасное», тем больше когнитивного бюджета у вас остаётся для работы, которая действительно важна. Это не просто проблема безопасности. Это проблема устойчивости человечества.

Проблема недетерминизма

Инженеры обучаются детерминизму. Один и тот же ввод, один и тот же вывод. Это контракт. Именно это делает возможной отладку. Именно это делает возможным рассуждение о системах.

ИИ нарушил этот контракт.

-3

В понедельник у меня был запрос, который работал идеально. Генерировал чистый, хорошо структурированный код для конечной точки API. Во вторник я использовал тот же запрос для аналогичной конечной точки. Вывод был структурно другим, использовал другой шаблон обработки ошибок и ввёл зависимость, которую я не запрашивал.

Почему? Нет причин. Вернее, нет причин, к которым я мог бы получить доступ. Нет трассировки стека для фразы «модель сегодня решила пойти в другом направлении». Нет лога, который бы говорил: «выборка температуры выбрала путь B вместо пути A». Просто... всё произошло по-другому.

Для человека, чья вся карьера построена на принципе «если что-то сломалось, я могу выяснить почему», это очень тревожно. Не в драматическом смысле. А в медленном, мучительном, фоновом тревоге. Никогда нельзя полностью доверять результатам. Никогда нельзя полностью расслабиться. Каждое взаимодействие требует бдительности.

Я пытался бороться с этим. Я использовал версионный контроль для своих подсказок. Я создавал сложные системные сообщения. Я создавал шаблоны. Частично это помогло. Но ничто не решило фундаментальную проблему: вы сотрудничаете с вероятностной системой, а ваш мозг запрограммирован на детерминированные. Это несоответствие является постоянным, слабым источником стресса.

Именно это разочарование привело меня к созданию Distill — детерминированной дедупликации контекста для LLM. Никаких вызовов LLM, никаких эмбеддингов, никаких вероятностных эвристик. Чистые алгоритмы, которые очищают ваш контекст примерно за 12 мс. Я хотел, чтобы хотя бы одна часть конвейера ИИ была чем-то, что я мог бы анализировать, отлаживать и чему мог бы доверять. Если выходные данные модели будут недетерминированными, я, по крайней мере, должен убедиться, что входные данные чистые и предсказуемые.

Инженеры, с которыми я общался и которые лучше всего справляются с этим, — это те, кто смирился с этим. Они относятся к выходным данным ИИ как к первому черновику от умного, но ненадежного стажера. Они ожидают, что перепишут 30% из них. Они выделяют время на эту переработку. Они не расстраиваются, когда выходные данные неверны, потому что они никогда не ожидали, что они будут правильными. Они ожидали, что они будут полезными. Разница есть.

Беговая дорожка FOMO

Сделайте вдох и попробуйте угнаться за событиями последних нескольких месяцев. Claude Code выпускает субагентов, затем навыки, затем SDK для агентов, затем Claude Cowork. OpenAI запускает Codex CLI, затем GPT-5.3-Codex — модель, которая буквально помогла программировать самой себе. Новые агенты для программирования объявляют о фоновом режиме с сотнями одновременных автономных сессий. Google отказывается от Gemini CLI. GitHub добавляет реестр MCP. Приобретения происходят еженедельно. Amazon Q Developer получает обновления для агентов. CrewAI, AutoGen, LangGraph, MetaGPT — выбирайте свой фреймворк для агентов, каждую неделю появляется новый. Google анонсирует A2A (протокол «агент-агент»), чтобы конкурировать с MCP от Anthropic. OpenAI выпускает собственный фреймворк Swarm. Kimi K2.5 выходит с архитектурой роя агентов, управляющей 100 параллельными агентами. «Vibe-кодирование» становится популярным. OpenClaw запускает рынок навыков, и в течение недели исследователи обнаруживают более 400 навыков вредоносных агентов, загруженных на ClawHub. И где-то посреди всего этого кто-то в LinkedIn пишет: «Если вы не используете ИИ-агентов с оркестровкой суб-агентов в 2026 году, вы уже устарели».

Это не год. Это несколько месяцев. И я кое-что упускаю.

Я сам попал в эту ловушку. Я проводил выходные, оценивая новые инструменты. Читал каждый список изменений. Смотрел каждую демонстрацию. Пытался оставаться на передовой, потому что боялся отстать.

Вот как это выглядело на самом деле: я тратил субботний день на настройку нового инструмента для программирования ИИ. К воскресенью у меня был базовый рабочий процесс. К следующей среде кто-то писал о другом инструменте, который был «намного лучше». Я чувствовал приступ тревоги. К следующим выходным я снова настраивал новую вещь. Старая вещь простаивала без дела. От одного помощника по программированию к другому, затем к следующему и обратно к первому. Каждая миграция отнимала у меня выходные и давала, может быть, 5% улучшения, которое я даже толком не мог измерить.

Умножьте это на все категории — помощники по программированию, интерфейсы чата, фреймворки агентов, платформы оркестрации многоагентных систем, серверы MCP, инструменты управления контекстом, библиотеки подсказок, архитектуры роев, рынки навыков — и вы получите человека, который постоянно изучает новые инструменты и никогда не углубляется ни в один из них. Одна только главная страница Hacker News способна вызвать шок. Сегодня это «Показать HN: Автономный исследовательский рой», а завтра — «Спросить HN: Как будут координироваться рои ИИ?» Никто не знает. Все и так занимаются разработкой.

Хуже всего — это утрата знаний. Я потратил две недели на создание сложного рабочего процесса разработки подсказок в начале 2025 года. Тщательно разработанные системные подсказки, примеры с небольшим количеством примеров, шаблоны цепочки мыслей. Это хорошо работало. Три месяца спустя модель обновилась, лучшие практики подсказок изменились, и половина моих шаблонов дала результаты хуже, чем простая однострочная подсказка. Эти две недели ушли впустую. Не вложены. Потрачено. То же самое произошло с моей настройкой сервера MCP — я создал пять пользовательских серверов (издатель Dev.to, интеграция с Apple Notes, песочницы Python и TypeScript и многое другое), затем протокол развивался, затем был запущен реестр MCP на GitHub, и внезапно появились тысячи готовых шаблонов. Часть моей пользовательской работы в одночасье стала избыточной.

Смена фреймворков агентов еще хуже. Я наблюдал, как команды за год перешли от LangChain к CrewAI, затем к AutoGen и, наконец, к собственной оркестровке. Каждая миграция означала переписывание интеграций, переизучение API, перестройку рабочих процессов. Те, кто ждал и ничего не делал, часто оказывались в лучшем положении, чем те, кто внедрил систему раньше и был вынужден мигрировать дважды.

С тех пор я принял другой подход. Вместо того чтобы гнаться за каждым новым инструментом, я углубляюсь в инфраструктурный уровень под ними. Инструменты появляются и исчезают. Проблемы, которые они решают, остаются. Эффективность контекста, авторизация агентов, журналы аудита, безопасность во время выполнения — это устойчивые проблемы, независимо от того, какой фреймворк популярен в этом месяце. Именно поэтому я создал agentic-authz на OpenFGA, а не привязывал его к какому-либо конкретному фреймворку для агентов. Именно поэтому Distill работает на уровне контекста, а не на уровне подсказок. Стройте на том уровне, который не меняется.

Я по-прежнему внимательно слежу за развитием событий — это необходимо при создании инфраструктуры для этого. Но я слежу, чтобы понимать, куда движется экосистема, а не чтобы внедрять все новое. Есть разница между информированностью и реактивностью.

Ловушка «еще один командный запрос»

Это коварная ловушка. Вы пытаетесь заставить ИИ сгенерировать что-то конкретное. Первый результат на 70% верен. Поэтому вы уточняете свой промпт - командный запрос. Второй результат на 75% верен, но сломал то, что было правильно в первом варианте. Третья попытка: 80% верна, но теперь структура другая. Четвертая попытка: вы занимаетесь этим уже 45 минут, а могли бы написать все с нуля за 20.

Я называю это спиралью подсказок. Это аналог бритья яка в мире ИИ. Вы начали с четкой цели. Через тридцать минут вы отлаживаете подсказки вместо кода. Вы оптимизируете инструкции под языковую модель вместо решения реальной проблемы.

Спираль подсказок особенно опасна, потому что она кажется продуктивной. Вы повторяете шаги. Вы приближаетесь к цели. Каждая попытка немного лучше. Но предельная отдача быстро уменьшается, и вы упускаете из виду тот факт, что целью никогда не было «заставить ИИ выдавать идеальный результат». Целью было внедрение функции.

Теперь у меня есть жесткое правило: три попытки. Если ИИ не доводит меня до 70% работоспособности за три подсказки, я пишу это сам. Без исключений. Это единственное правило сэкономило мне больше времени, чем любая другая техника подсказок, которую я когда-либо изучал.

Перфекционизм встречается с вероятностным результатом

Инженеры склонны к перфекционизму. Нам нравится чистый код. Нам нравятся тесты, которые проходят. Нам нравятся системы, которые ведут себя предсказуемо. Это не ошибка, а особенность — именно это делает нас хорошими разработчиками надежного программного обеспечения.

Результаты работы ИИ никогда не бывают идеальными. Они всегда «довольно хороши». 70-80% успеха. Имена переменных немного неточны. Обработка ошибок неполная. Краевые случаи игнорируются. Абстракция не подходит для вашего кода. Он работает, но не идеален.

Для перфекциониста это пытка. Потому что «почти идеально» хуже, чем «совершенно неправильно». Совершенно неправильно — выбрасываете и начинаете заново. Почти идеально — тратите час на доработку. А доработка результатов работы ИИ особенно расстраивает, потому что вы исправляете чужие проектные решения — решения, принятые системой, которая не разделяет ваш вкус, ваш контекст или ваши стандарты.

Мне пришлось научиться отпускать. Не качество — качество меня по-прежнему волнует. Но ожидание того, что ИИ будет создавать качественный результат. Теперь я отношусь к каждому результату работы ИИ как к черновику. Отправной точке. Сырью. Я мысленно помечаю это как «черновик», как только он появляется, и одно только это изменение формулировки уменьшило мое разочарование вдвое.

Инженеры, которым сложнее всего работать с ИИ, часто являются лучшими инженерами. Теми, у кого самые высокие стандарты. Теми, кто замечает каждое несовершенство. ИИ вознаграждает другой навык: способность быстро извлекать пользу из несовершенного результата, не вкладывая эмоциональные силы в его совершенствование.

Атрофия мышления

-4

Вот что меня пугает больше всего.

Я заметил это во время совещания по обзору проекта. Кто-то попросил меня проанализировать проблему параллельного выполнения на доске. Никакого ноутбука. Никакого ИИ. Только я и маркер. И мне было трудно. Не потому, что я не знал концепций — знал. А потому, что я не тренировал этот навык месяцами. Я так долго перекладывал свои черновые расчеты на ИИ, что моя способность мыслить с нуля деградировала.

Это как GPS и навигация. До GPS вы создавали мысленные карты. Вы знали свой город. Вы могли рассуждать о маршрутах. После многих лет использования GPS вы уже не можете ориентироваться без него. Навык атрофировался, потому что вы перестали им пользоваться.

То же самое происходит с ИИ и инженерным мышлением. Когда вы всегда сначала спрашиваете ИИ, вы перестаёте строить нейронные связи, которые возникают, когда вы сами пытаетесь решить проблему. Именно в борьбе происходит обучение. Именно в путанице формируется понимание. Пропустите это, и вы получите более быстрый результат, но более поверхностное понимание.

Теперь я намеренно провожу первый час своего дня без ИИ. Я думаю на бумаге. Я рисую архитектурные эскизы от руки. Я медленно прорабатываю проблемы. Это кажется неэффективным. Это действительно неэффективно. Но это поддерживает остроту моего мышления, и эта острота приносит свои плоды в течение остальной части дня, когда я использую ИИ, — потому что я могу лучше оценить его результаты, когда мои собственные рассуждения разогреты.

Ловушка сравнения

Социальные сети полны людей, которые, кажется, разобрались с ИИ. Они публикуют свои рабочие процессы. Показатели своей производительности. Темы типа «Я создал это приложение за 2 часа с помощью ИИ». И вы смотрите на свой собственный опыт — неудачные попытки, потраченное впустую время, код, который пришлось переписывать, — и думаете: что со мной не так?

С вами всё в порядке. Эти обсуждения — это лишь лучшие моменты. Никто не пишет: «Я потратил 3 часа, пытаясь заставить Клода понять схему моей базы данных, и в конце концов сдался и написал миграцию вручную». Никто не пишет: «Код, сгенерированный ИИ, вызвал сбой в работе, потому что он молча проигнорировал ошибку». Никто не пишет: «Я устал».

Ловушка сравнения усугубляется тем фактом, что навыки ИИ трудно измерить. В традиционной инженерии вы можете посмотреть на чей-то код и приблизительно оценить его способности. В случае с ИИ результат зависит от модели, запроса, контекста, температуры, фазы луны. Впечатляющая демонстрация кого-то может не воспроизвестись на вашей машине с вашей кодовой базой.

Я стал гораздо избирательнее относиться к контенту об ИИ в социальных сетях. Я по-прежнему внимательно слежу за этой областью — я должен, это моя работа. Но я переключился с потребления поверхностных мнений всех подряд на то, чтобы сосредоточиться на людях, которые действительно создают и внедряют продукты, а не просто демонстрируют их. Соотношение полезной информации и тревоги имеет значение. Если лента заставляет вас чувствовать себя отстающим, а не информированным, она вам не помогает.

Что действительно помогло

Я подробно расскажу о том, что изменило мои отношения с ИИ с враждебных на устойчивые.

Ограничение по времени сеансов работы с ИИ. Я больше не использую ИИ без ограничений. Я устанавливаю таймер. 30 минут на эту задачу с ИИ. Когда таймер срабатывает, я выпускаю то, что у меня есть, или переключаюсь на написание кода самостоятельно. Это предотвращает спираль подсказок и ловушку перфекционизма одновременно.

Разделение времени, отведенного на ИИ, и времени на размышления. Утро — для размышлений. День — для выполнения задач с помощью ИИ. Это не жесткое правило — иногда я его нарушаю. Но наличие структуры по умолчанию означает, что мой мозг получает и тренировку, и помощь в правильных пропорциях.

Принятие 70% от ИИ. Я перестал стремиться к идеальному результату. 70% пригодности — это планка. Остальное я исправлю сам. Это принятие стало самым большим фактором снижения разочарования, связанного с ИИ, в моем рабочем процессе.

Стратегический подход к циклу ажиотажа. Я слежу за развитием ИИ, потому что создаю для него инфраструктуру. Но я перестал внедрять каждый новый инструмент в неделю его запуска. Я использую одного основного помощника по программированию и знаю его досконально. Я оцениваю новые инструменты, когда они доказали свою эффективность в течение нескольких месяцев, а не дней. Быть в курсе событий и быть оперативным — это разные вещи.

Отслеживание того, где ИИ помогает, а где нет. Я вел простой журнал в течение двух недель: задача, использование ИИ (да/нет), затраченное время, удовлетворенность результатом. Данные оказались показательными. ИИ сэкономил мне значительное время на шаблонном коде, документации и генерации тестов. Он отнимал время на архитектурные решения, сложную отладку и все, что требовало глубокого понимания контекста моего кода. Теперь я знаю, когда стоит к нему обращаться, а когда нет.

Не проверять все, что создает ИИ. Это было трудно принять. Но если вы используете ИИ для генерации больших объемов кода, вы физически не можете проверять каждую строку с одинаковой тщательностью. Я концентрирую свои усилия на проверке наиболее важных частей — границ безопасности, обработки данных, путей обработки ошибок — и полагаюсь на автоматизированные тесты и статический анализ для остального. Некоторая шероховатость в некритичном коде допустима.

Вопрос устойчивости

В технологической индустрии существует проблема выгорания, которая существовала задолго до ИИ. ИИ усугубляет ее, а не улучшает. Не потому, что ИИ плох, а потому, что ИИ снимает естественные ограничения скорости, которые раньше нас защищали.

До ИИ существовал потолок того, сколько вы можете произвести за день. Этот потолок устанавливался скоростью печати, скоростью мышления, временем, необходимым для поиска информации. Иногда это вызывало разочарование, но это также был ограничитель. Вы не могли работать до изнеможения, потому что сама работа накладывала ограничения.

ИИ снял этот ограничитель. Теперь единственным ограничением является ваша когнитивная выносливость. И большинство людей не знают своих когнитивных пределов, пока не превысят их.

ИИ убрал этот ограничитель. Теперь единственным ограничением является ваша когнитивная выносливость. И большинство людей не знают своих когнитивных пределов, пока не превысят их.

Я выгорел в конце 2025 года. Не сильно — я не уволился и не пережил нервный срыв. Я просто перестал заботиться. Проверка кода превратилась в формальное одобрение. Решения по дизайну стали приниматься по принципу «что бы ни предложил ИИ». Я работал механически, производил больше, чем когда-либо, и чувствовал себя хуже, чем когда-либо. Мне потребовался месяц, чтобы осознать, что произошло, и еще месяц, чтобы восстановиться.

Восстановление заключалось не в уменьшении использования ИИ. Оно заключалось в использовании ИИ по-другому. С ограничениями. С намерением. С пониманием того, что я не машина и мне не нужно идти в ногу с ней. Работа в Ona помогла мне ясно это увидеть — когда вы создаете инфраструктуру ИИ-агентов для корпоративных клиентов, вы видите человеческие издержки неустойчивых рабочих процессов ИИ в масштабе. Проблемы не только личные. Они системные. И их нужно решать на уровне инструментов, а не только на индивидуальном уровне.

По иронии судьбы, именно в период выгорания я создал некоторые из своих лучших работ. Когда я перестал пытаться использовать каждый инструмент ИИ и начал думать о том, что на самом деле сломано, я впервые ясно увидел проблемы. Окна контекста заполнялись мусором — это стало основой Distill. Агенты с доступом к API-ключу по принципу «всё или ничего» — это стало основой agentic-authz. Невозможность отслеживать фактические действия агента — это стало основой AgentTrace. Усталость заставила меня перестать потреблять и начать создавать. Не создавать больше функций быстрее, а целенаправленно создавать правильные вещи.

Настоящее мастерство

Вот что, на мой взгляд, является настоящим мастерством в эпоху ИИ. Это не оперативное проектирование. Это не знание, какую модель использовать. Это не наличие идеального рабочего процесса.

Это знание, когда остановиться.

-5

Знание, когда результат работы ИИ достаточно хорош. Знание, когда нужно написать его самому. Знание, когда закрыть ноутбук. Знание, когда незначительное улучшение не стоит когнитивных затрат. Знание того, что ваш мозг — это ограниченный ресурс, и что его защита — это не лень, а инженерное мастерство.

Мы оптимизируем наши системы для устойчивости. Мы добавляем автоматические выключатели. Мы внедряем обратное давление. Мы проектируем с учетом плавной деградации. Мы должны делать то же самое для себя.

ИИ — самый мощный инструмент, который я когда-либо использовал. Он также самый истощающий. И то, и другое верно. Инженеры, которые преуспеют в эту эпоху, будут не теми, кто использует ИИ чаще всего. Они будут теми, кто использует его наиболее мудро.

Если вы устали, это не потому, что вы делаете что-то не так. Потому что это действительно сложно. Инструмент новый, закономерности еще формируются, и индустрия делает вид, что чем больше производительность, тем больше ценность. Это не так. Устойчивая производительность – вот что важно.

Я до сих пор каждый день работаю в этой области. Авторизация агентов, проектирование контекста, журналы аудита, безопасность во время выполнения – инфраструктура, которая позволяет ИИ-агентам действительно работать в производственной среде. Я как никогда предан ИИ. Но я предан этому на своих условиях, в своем темпе, создавая то, что имеет значение, вместо того, чтобы гнаться за трендами.

Берегите свой мозг. Он единственный, который у вас есть, и никакой ИИ не сможет его заменить.

Источник

Роботы говорят как люди, а люди — как роботы

В то время как инструменты искусственного интеллекта обучаются имитировать людей, люди теперь перенимают способы общения ИИ. Почему это происходит? Что является причиной?

Автор: Мариана София Хименес Нахера

Технологии всегда меняли то, как мы общаемся (от телеграфа до сокращений в SMS), но современный генеративный ИИ заходит дальше: он не просто ускоряет переписку, а начинает диктовать стиль, тон и структуру нашей речи, постепенно лишая её человеческой индивидуальности.

Ключевые причины и последствия:

1.Деперсонализация общения: Желая сэкономить время, люди доверяют ИИ написание сообщений близким. В итоге живой язык подменяется «нейтрально-восторженным» тоном нейросети, что делает общение суррогатным.

2.Утрата навыков и неуверенность: Чрезмерная опора на ИИ приводит к тому, что люди (особенно студенты) перестают доверять собственным способностям писать тексты и проверять ошибки, теряя когнитивную автономию.

3.Языковая унификация: ИИ часто использует специфические слова-маркеры (например, delve, meticulous), которые проникают в научные и повседневные тексты. Это обедняет языковое разнообразие и делает речь шаблонной.

4.Культурное доминирование: Большинство моделей обучаются на английском языке и западных стандартах. Из-за этого другие языки (включая испанский и другие) при генерации текстов подсознательно перенимают англоязычную структуру и логику, стирая культурные особенности.

Автор призывает использовать ИИ осознанно — как вспомогательный инструмент для работы, а не как замену человеческому общению. Несовершенства и «неуклюжесть» живой речи являются фундаментальными признаками нашей человечности, которые важно сохранить.

[Читать в переводе 5мин](https://dzen.ru/a/aZSLA36Ro1z6cMTG)

Одной из наиболее значимых областей человеческой жизни, в которой технологии произвели революцию, является коммуникация. На протяжении всей истории человечества люди находили все более эффективные способы общения друг с другом, в последнее время — благодаря технологическим достижениям, таким как телеграф, радио, телевидение, а теперь и смартфоны.

Многие из этих технологий были ограничены, поэтому их эффективное использование было необходимостью. Например, каждое слово, отправленное по телеграмме, имело свою стоимость, поэтому отправка коротких сообщений была нормой для снижения расходов. С другой стороны, спустя годы, помимо затрат на отправку сообщений через первые мобильные телефоны, написание текстовых сообщений на их тесной и крошечной клавиатуре стало медленным и утомительным процессом, поэтому люди стали сокращать распространенные слова или использовать смайлики, чтобы ускорить этот процесс («bc» означает «потому что»; «np» означает «нет проблем», а «lol» означает «смеюсь вслух»).

Эти сокращения продолжают оставаться частью нашей повседневной жизни. Хотя сейчас у нас более доступные клавиатуры и мы можем легко отправлять голосовые сообщения, эти сочетания клавиш сохраняются и даже проникли в современное общение, как в социальных сетях, так и при личном общении. Миллениалы и более молодые поколения используют эти сокращения в своих разговорах, продолжают использовать двоеточие и скобки для выражения улыбки или выбирают GIF-изображение, чтобы выразить определенное чувство.

Применение искусственного интеллекта в повседневной жизни становится все более удивительным, особенно когда оно влияет на наше поведение. Зависимость от этих инструментов для поиска советов, проведения академической работы и выполнения других задач является повторяющейся темой. Постепенно эти технологии повлияли на язык и способы нашего общения, особенно сегодня, когда скорость высоко ценится.

Автокоррекция и предиктивный ввод текста существовали и до появления ИИ, помогая пользователям быстро и точно составлять текст. Однако различные онлайн-платформы для покупок и социальные сети ввели возможность устанавливать комментарии по умолчанию к постам, или пользователи могут даже использовать инструменты ИИ для отправки сообщений в разных тонах, чтобы сэкономить время.

Например, сотрудник, покидая рабочее место, просит свой смартфон отправить сообщение: «Отправь моему другу сообщение в бодром тоне, сказав, что я иду в ресторан». Время, необходимое этому человеку для передачи команды ИИ для генерации сообщения, будет таким же, как если бы он отправил голосовое сообщение своими словами. Это займет еще больше времени, если человеку придется прочитать сообщение и исправить его перед отправкой. Более того, хотя пользователь задает намерение, генеративный ИИ, как правило, принимает дружелюбный, восторженный тон, что в определенной степени деперсонализирует сообщения, обычно адресованные близким людям.

Чрезмерное использование этих инструментов может привести к зависимости, в результате которой люди со временем теряют уверенность в своей способности писать любой текст; машинам предоставляется частичный или даже полный контроль над тем, как люди взаимодействуют друг с другом, что может быть контрпродуктивным для социального развития. Подобно тому, как люди используют чат-боты с искусственным интеллектом в качестве психотерапевтов, существуют также пользователи, которые загружают свои разговоры на эти платформы, чтобы те помогли им писать наиболее подходящие ответы и даже глубоко анализировать их сообщения для определения намерений, эмоций, совместимости и т. д.

Однако различные исследования показали, что использование определенных слов и структур текста значительно возросло благодаря применению искусственного интеллекта. Через несколько месяцев после запуска ChatGPT исследования выявили значительное увеличение использования в научных текстах и ​​видео слов, которые ранее не были широко распространены, таких как delve, realm, meticulous (углубляться, царство, скрупулезный) и другие, что может негативно сказаться на языковом разнообразии. Эти слова или структуры теперь также стали сигналами, указывающими на использование ИИ; поэтому люди начали избегать их, что привело к тому, что некоторые стали избегать и этих платформ, и это еще один фактор, который следует учитывать при написании текстов.

Многие люди воспринимают некоторые платформы ИИ как источник абсолютной истины; таким образом, способ структурирования или исправления текстов этими инструментами часто считается «правильным». Однако результаты, получаемые с помощью этих платформ, часто оказываются относительно нейтральными, отвергая способы самовыражения людей и предоставляя более формальный текст, оставляя в стороне слова или фразы, которые придают больше человечности первоначальному тексту, — что приводит к «[…] более тонким изменениям в языке: тщательно взвешенным утверждениям, обоснованным мнениям и отточенной уверенности» (Prada, 2025).

Хорошим примером этого является анекдот Паолы Рикуарте, профессора и исследователя кафедры медиа и цифровой культуры кампуса Технологического университета Монтеррея в Мехико. В отчете IFE Insights | Генеративный искусственный интеллект в высшем образовании: объективное видение она вспоминает, как одна из ее студенток призналась, что каждый написанный ими текст обязательно проверяется одним из этих инструментов, потому что самостоятельная проверка вызывает у них чувство неуверенности. Однако это лишает людей автономии и навыков оценки, фундаментальных когнитивных компетенций.

Важно отметить, что многие из этих сайтов программируются людьми из других стран, таких как Нигерия и Кения, где говорят на английском языке. Поэтому то, что создается на многих из этих платформ, представляет собой автоматический перевод, запрограммированный преимущественно на английском языке. Лилиана Акоста говорит для Sin Embargo: «[…] хотя испанский является вторым по распространенности языком в интернете, его цифровой контент составляет всего шесть процентов в сети, по сравнению с 49 процентами для английского. […] Таким образом, хотя кажется, что цифровой мир разнообразен, поскольку нам внушают идею, что все мы способны создавать контент, правда заключается в том, что большая часть того, что мы видим, читаем и слушаем, имеет американский акцент». Подсознательно, таким образом, наиболее часто используемые слова и структуры, генерируемые ИИ, на самом деле определяются несколькими людьми.

Использование ИИ для проверки правильности использования слов или исправления грамматических ошибок очень ценно для выполнения высококачественных проектов и может улучшить обучение. Тем не менее, независимость от этих инструментов необходима для развития коммуникативных навыков вне академической среды и работы. Несовершенства или неуклюжесть в наших сообщениях отражают то, что делает нас людьми: то, как мы передаем свои чувства и намерения, фундаментальные элементы наших отношений с людьми. Важно помнить, что инструменты генеративного искусственного интеллекта никогда не будут свободны от предвзятости и могут незаметно изменять наше мышление. Мы должны использовать генеративный искусственный интеллект осознанно и тем самым взять под контроль свою собственную человечность.

Источник