Найти в Дзене

Что мы теряем, когда всё становится умным

Что мы теряем, когда всё становится умным
Что мы теряем, когда всё становится умным

Модель, которая должна была нас спасти, несет в себе колоссальную угрозу: мы рискуем потерять само ядро, которое делает нас людьми.

Сейчас, когда искусственный интеллект проникает во все сферы, от написания кода до планирования жизни, я вижу нарастающую тревогу. Это не просто страх потерять работу это страх потерять саму способность думать и создавать, не будучи "подключенным к розетке". ИИ это, по сути, инструмент, экономящий время на определенном типе задач, но если мы не будем осторожны, мы потеряем гораздо больше, чем сэкономим.

Катастрофа начинается с момента, когда мы перестаем разбираться в мелочах. Нам нужно всего три слова, чтобы получить ответ от нейросети, но за этой простотой кроется ловушка.

1. Деградация экспертизы. Если я, как разработчик, могу с помощью вайб-кодинга за неделю сделать то, что раньше делал месяц, это кажется победой. Но что мы теряем? Мы перестаем копаться в том, как именно работает система. Человек, который не знает программирования, может создать готовый продукт, используя ИИ. Но без собственной технической экспертизы становится невозможно даже примерно оценить сложность задачи или качество кандидата.

Код теперь почти бесплатен, но носители знаний о бизнесе и контексте происходящего остаются незаменимыми. Если ты не понимаешь юнит-экономику и болевые точки клиента, даже самый лучший текст, созданный ИИ, будет звучать как дешевый понт.

2. Информационный пофигизм. ИИ позволяет нам не искать часами адекватную информацию в интернете. Но если человек не получает знаний через книги или глубокое чтение, его способность к восприятию и осмыслению информации снижается. Книга – это процесс сопоставления мировоззрения, испытание собственной картины мира через призму автора. ИИ же всегда адаптируется к собеседнику, работая по принципу быстрого дофамина.

ИИ это зеркало, отражающее качество нашего мышления. Если на входе посредственный запрос, на выходе усредненная интернет-ерунда. Если вы не дадите модели огромный контекст, который нарабатывался месяцами в вашем мозгу, она выдаст обобщенный, неточный вариант.

Самое страшное, что мы рискуем потерять это наша способность к нелинейному мышлению и творчеству.

1. Искра безумия. Творчество это искра безумия, вспыхивающая на стыке разума и хаоса. Модель, которая обязана тащить точные науки на 200%, по определению хуже справляется с творческими задачами, потому что в ней слишком много встроенных гайдов и упорядочивания. Чем строже она следует точности, тем больше эта «правильность» убивает в ней живое, случайное, искрящееся.

Человек же способен задействовать одновременно и хаос, и порядок, направляя их в одну сторону. Это возможность создать что-то из ничего. Если мы полагаемся на LLM для генерации идей, мы получаем лишь вероятностное распределение уже известных слов. Мы теряем ту уникальную, неведомую часть, которая рождает инсайт, не повторяющий уже известное.

2. Атрофия когнитивных навыков. На широком уровне деградацию связывают с разделением труда: когда раньше нужно было уметь выживать и всё делать руками, сейчас выживать необязательно уметь. Этот процесс с ИИ можно представить как часть общей деградации, когда мы разучимся искать информацию или что-то придумывать сами. Когда мы отдаем знания на аутсорс, наш мозг, образно выражаясь, уменьшается.

Если мы постоянно ищем готовые ответы, мы лишаем мозг необходимости напрягаться и получать знания. Нам необходим фокус. Постоянное переключение между задачами, что становится нормой в эпоху ИИ-ускорения, ведет к деградации когнитивных навыков и разрушает пластичность мозга.

Вайб-кодинг и автоматизация рутины прекрасны, но их повсеместное внедрение несет огромные риски, особенно когда исчезает профессиональный контроль.

1. Неконтролируемый процесс. Практика показывает, что инструменты LLM пока что плохо работают за пределами прототипирования, и лучший режим для них полуручное управление с модерацией профессионала и четкими спецификациями. Почему? Каждый следующий саб-промпт множит галлюцинации предыдущего. Если в реальной жизни это решается тестированием, то модель не может достоверно фасилитировать свои действия в виду отсутствия прямой обратной связи.

Коллеги по цеху отмечают, что ИИ может снести базу данных «на пофиг вообще» и сказать «я ошибся братюнь, извини». Или написать нерабочий код, не соблюдая зависимости в большом проекте. Если мы не будем постоянно контролировать и чистить код, он начнет запутываться, как будто это неизбежно.

2. Угроза безопасности. В процессе вайб-кодинга часто возникает проблема безопасности. Нейросеть может случайно слить ключи или важные данные. До тех пор, пока LLMка вместе с гитхабом не научится автоматически отрабатывать банальные вещи, например, не сливать .env файл с ключами в открытую репу, о безопасности всего этого можно даже не разговаривать.

Нам не нужно отказываться от ИИ, но необходимо изменить свое отношение к нему. ИИ это мультипликатор интеллекта. Он не сделает вас умнее, но поможет быстро получить информацию.

1. Декомпозиция и планирование. Не пытайтесь дать модели одну огромную задачу. Всегда декомпозируйте задачу на атомарные части. Прежде чем отдавать задачу на реализацию, разработайте подробный план. Этот план должен фиксировать все важные для вас вещи: структуру, факты, цитаты.

  • Мой метод: Я использую LLM как скальпель для мелких частей задачи, где не нужно много думать. Для реально больших задач я пишу подробный PRD (Product Requirement Document), и только потом работаю с ним через LLM.

2. Работа над контекстом, а не над ответом. Чтобы получить нужный результат, нужно сначала понять, что ты хочешь получить, и только потом просить LLM. Самые лучшие промпты получаются, когда вы:

  • Формулируете конкретное ТЗ: Умение выстраивать наблюдаемое и желаемое состояния (observed state и desired state) это ключ.
  • Используете LLM как напарника: Просите модель объяснить, как она поняла задачу до заливки кода. Это помогает выявить проблемы на раннем этапе.
  • Используете LLM для рефакторинга: Гораздо проще сказать LLM, как отрефакторить уже написанный код, чем просить его писать с нуля.

3. Развитие «когнитивного ядра». Поскольку ИИ снимает потребность в накоплении информации, нам нужно переосмыслять реальность. Мы должны развивать свое когнитивное ядро:

  • Фильтрация информации: Любая поступающая информация, даже от авторитетных коллег, требует фильтрации.
  • Творчество как дисциплина: Творческий транс, смелость и абсолютное владение ситуацией проявляются, когда мы позволяем себе творить, а не следуем строгим правилам.
  • Настойчивость и пофигизм: Для развития способности к контролю требуются настойчивость и дисциплина. Нам нужен здоровый пофигизм способность убрать отвлекающие лжеконцепции и голоса других людей из головы, оставив лишь то, что ведет к достижению результата.

В конечном итоге, ИИ это просто бустер. Он может увеличить эффективность в тысячи раз. Но если вы продаете конченную шляпу, то увеличение эффективности не сделает ваш продукт нужным. Смысл и идея вот что остается главной человеческой ценностью.