Хочу честно сразу обозначить: я работаю с LLM профессионально, строю RAG-пайплайны и в целом нахожусь по другую сторону баррикад от того, о чём пишет Шон Бутс в своём эссе «Вегетарианство в генеративном ИИ (Generative AI vegetarianism)». И именно поэтому хочу разобрать его текст внимательно — потому что когда тебя долго убеждают, что «все, кто не использует ChatGPT, луддиты», начинаешь автоматически отметать любую критику. А некоторые аргументы там действительно стоят того, чтобы их услышать.
Сразу важная деталь, которую новостной пересказ опускает: Бутс не первый. Ещё в 2022 году Саймон Уиллисон (тот самый, кто ввёл термин «инъекцию промта (prompt injection)») предложил называть людей, отказывающихся от генеративного ИИ, ИИ-веганами. Бутс осознанно сдвигает позицию на ступень мягче — он не веган, он вегетарианец. И это различие не косметическое, а смысловое.
Вегетарианец vs веган: почему это важно
Веган в этой метафоре — это тот, кто не только сам не пользуется генеративным ИИ, но и активно убеждает других этого не делать, считает использование ИИ этически недопустимым, требует отказа на уровне общества. Вегетарианец — мягче: «я для себя выбрал не пользоваться этим, и хочу, чтобы у меня было удобное короткое слово, чтобы объяснять свою позицию, не читая часовую лекцию».
Бутс в эссе прямым текстом пишет: если вы кайфуете от ИИ-инструментов — окей, не его дело. У него друзья проводят воркшопы по ИИ, в его собственной работе (он open-data менеджер в правительстве Юкона) ИИ-инструменты используются для расширения доступа к госданным. Он не моралист. Он просто хочет, чтобы существовало вежливое короткое «нет, спасибо», как «я вегетарианец» в ресторане.
Эта рамка мне нравится. Она убирает из разговора пафос и токсичность.
Что это значит на практике
В быту ИИ-вегетарианство по Бутсу — это четыре конкретных привычки:
🔧 Отключать все опциональные ИИ-настройки в приложениях. Microsoft Copilot в Office (Бутс с горечью отмечает, что его приходится отключать «снова и снова и снова» после каждого апдейта), Google Gemini на телефоне, Apple Intelligence на ноутбуке.
🚫 Не использовать встроенные ИИ-фичи, которые отключить нельзя — он называет WhatsApp и Facebook Messenger.
🎨 Не потреблять и не репостить контент, сгенерированный нейросетями — статьи, картинки, музыку, видео.
🛒 По возможности выбирать софт без ИИ-функций и поддерживать компании, которые осознанно их избегают.
При этом — и это критически важно — Бутс не отвергает машинное обучение в целом. Он спокойно пользуется алгоритмическими рекомендациями плейлистов, распознаванием лиц в Google Photos для семейного архива, спам-фильтром в почте, спеллчекером, OCR. Он прямо пишет: если бы кто-то сделал инструмент, который надёжно превращает PDF-ки канадских госзапросов в Markdown — он бы пользовался им без вопросов. Граница, которую он проводит, — это граница вокруг генеративных систем, обученных на массовых веб-скрейпах.
Это уже более содержательная позиция, чем «ИИ плохой». Это: «у меня есть конкретные претензии к конкретному классу систем, которые я могу аргументировать».
Список претензий — где я согласен и где нет
Бутс приводит длинный список аргументов. Давайте честно — какие из них железобетонные, а какие я бы оспорил.
С чем я согласен
Тренировочные данные собраны без согласия авторов. Это объективный факт, и он сейчас активно разбирается в судах — иски от New York Times, гильдий писателей, музыкальных лейблов. Вне зависимости от исхода конкретных дел, моральная проблема никуда не девается: открытый архив интернета (Common Crawl), миллионы отсканированных книг, транскрипции YouTube — всё это пошло в обучение без переговоров с создателями. Я как пользователь LLM в этой цепочке стою после того, как фарш уже прокручен. Но это не отменяет того, что фарш прокрутили.
«Провал ответственности (Accountability sink)» — это очень реальная штука. Бутс называет это самой опасной функцией ИИ в институциях, и я с ним полностью согласен. Когда в банке отказывают в кредите со ссылкой на «модель приняла решение», когда страховая отказывает в выплате на основе «алгоритмической оценки», когда в найме отбраковывают резюме «системой» — это размывание ответственности конкретных людей за конкретные решения. ИИ становится удобной ширмой: «это не я отказал, это нейросеть посчитала». Это очень опасный паттерн, и он уже сейчас разворачивается в скоринге, медицинской триаже, в военных применениях.
Энергопотребление дата-центров — растёт быстрее, чем все думают. В США уже есть конфликты местных сообществ с дата-центрами вокруг водных ресурсов и сетей электроснабжения. Это не «зелёная истерика», это реальная инфраструктурная нагрузка, которой никто не закладывался десять лет назад.
Деградация навыков письма и мышления у тех, кто использует LLM как «костыль первого выбора». Здесь уже накопились эмпирические работы — про снижение метакогнитивной активности, про то, как студенты, начинающие писать с ChatGPT, потом не умеют структурировать мысль с нуля. Я это вижу и в своей среде: коллеги, которые перестали читать документацию и идут сразу в чат, теряют способность дебажить нетривиальные ошибки.
Эксплуатация низкооплачиваемого ручного труда в RLHF. Кенийские и филиппинские разметчики, которые получают $2/час за просмотр травматичного контента для тренировки фильтров — это документированная история, о которой писал Time ещё в 2023-м. И с тех пор индустрия особо не исправилась.
Где я бы аккуратно поспорил
«LLM производит клише, а не инсайт.» Это правда статистически — модели натренированы на стремление к наиболее вероятному варианту (mode-seeking), то есть на самые вероятные продолжения. Но называть это фундаментальной фичей жанра преждевременно: при правильном промптинге, при использовании в режиме «соавтор, а не автор», результат сильно лучше. Бутс описывает дефолтное поведение чат-интерфейса, и да, оно посредственное. Но это не свойство технологии, это свойство продуктового UX.
«Категориальный отказ проще, чем граница.» Тут начинается философское. Бутс сам пишет, что граница между «хорошим ML» (OCR, спам-фильтр, спеллчекер) и «плохим генеративным ИИ» удобна, но она довольно условна. Современный спеллчекер у Apple и Google уже использует ту же трансформерную архитектуру, что и ChatGPT, просто меньшего размера. Распознавание лиц в Google Photos обучено на тех же массовых скрейпах. То есть «вегетарианство» Бутса — это эстетический и поведенческий выбор, а не строгая техническая категоризация. Что нормально! Просто стоит это явно проговаривать.
Позиционность. Это деликатный момент. Бутс — старший госслужащий с устойчивой работой и зарплатой. Сказать «я не буду пользоваться Copilot и буду писать всё руками» он может позволить. Студент-первокурсник, фрилансер на Upwork, разработчик в найме, у которого KPI завязаны на скорость, — у них этот выбор уже сильно дороже. AI-вегетарианство как личная позиция — окей. Но как универсальный совет — это неосознанное мнение с привилегированной позиции (privileged take).
Чем мне всё равно полезен этот текст
Несмотря на то, что я не подпишусь под полным списком, — я благодарен Бутсу за саму рамку разговора.
В русскоязычной среде сейчас дискурс об ИИ страшно поляризован: либо «нейронки решат всё», либо «нейронки уничтожат всё». Промежуточной, спокойной, личной позиции — не «я против ИИ», а «я не хочу его в этой части моей жизни» — почти нет. А она здоровая. Точно так же, как нормально не пить алкоголь по личным причинам без присоединения к движению трезвенников. Точно так же, как нормально не сидеть в TikTok без объявления его абсолютным злом.
Я думаю, что в ближайшие пару лет такая позиция станет более массовой. Появятся продукты с ярлыком «ИИ-free» — как сейчас есть «органическое (organic)» или «сделано в ручную (handmade)». Появятся издательства, которые гарантируют, что их книги написаны людьми. Появится мода на «человеческий» контент — отчасти как реакция на засилье ИИ-слопа в ленте, отчасти как осознанная эстетика. Бутс сравнивает это с вегетарианскими опциями в ресторанах: есть рынок, есть запрос, есть отдельная полка.
Лично я останусь по своей стороне баррикад — буду строить retrieval-системы, экспериментировать с агентами, использовать LLM каждый день. Но я уважаю тех, кто принципиально решает иначе. И мне нравится, что у этой позиции теперь есть короткое и неконфронтационное слово.
«Нет, спасибо, я вегетарианец» — это правда удобнее, чем сорокаминутный спор.
Источники
🔗 Оригинал эссе Шона Бутса — Generative AI vegetarianism, sboots.ca
🔗 Концепция «AI vegan» Саймона Уиллисона (2022) — simonwillison.net
🔗 Статья Дэвида Джойнера «AI Veganism» (2025) — The Conversation
🔗 Энтони Мозер, «I Am An AI Hater» — anthonymoser.github.io
🔗 Дженни Чжан, «Choosing friction» — phirephoenix.com
🔗 Эд Зитрон, «The Case Against Generative AI» — wheresyoured.at
🔗 Common Crawl и обучающие данные ИИ — The Atlantic
🔗 Подкаст Эмили Бендер и Алекс Ханны с Парижем Марксом — Tech Won't Save Us
🔗 Русскоязычный пересказ — Telegra.ph