Чат-бот Маска может быть лишь неуклюжей версией будущего
Несколько недель назад я был в гипермаркете в поисках очень специфического типа шланга. Как это часто со мной бывает в таких магазинах, я стоял в проходе, уныло глядя на бесконечный ассортимент товаров, внезапно став менее уверенным в том, что мне вообще нужно, чем был, выходя из дома.
Если вы хотите читать больше интересных историй, подпишитесь на наш телеграм канал: https://t.me/deep_cosmos
В этот раз ко мне в отделе садоводства присоединилась общительная женщина, которая, как выяснилось, искала нечто подобное. Мы разговорились и нашли общий язык — оказалось, у нас одинаковая профессия (мы оба учителя) и примерно одинаково смутное представление о том, как правильно установить то, что мы хотели посадить в своих садах. И, поскольку на дворе 2025 год, мы оба достали телефоны и начали искать ответы, сравнивая, что кто находит.
В итоге я так и не нашёл то, что искал, но это было любопытное наблюдение: насколько по-разному мы искали информацию. Эта женщина полагалась исключительно на ChatGPT, а я использовал старую добрую Google. Она сказала мне, что «обожает» ChatGPT и использует его «для всего». Она начала задавать боту всякие вопросы про лучшие модели оросительных шлангов и о том, где их можно найти в магазине.
Полученные ею ответы были полны ошибок: у чат-бота не было доступа к базе данных магазина, поэтому он продолжал рекомендовать товары, которых в этой сети, а по крайней мере в нашем магазине, попросту не было. Тем не менее она всё равно их искала, доверяя чат-боту больше, чем собственным глазам. ChatGPT уверенно высказывал суждения о том, какие товары лучше, почти не приводя никаких доказательств или рассуждений в поддержку своих утверждений. Моя новая знакомая, казалось, верила всему, что говорил ей бот, разыскивая товары, которых явно не было, потому что ChatGPT настаивал, что они должны быть в этом ряду. Когда бот ошибался, она просто пожимала плечами и задавала ему новый вопрос.
Меня поразило, что эта женщина, преподаватель, могла настолько полагаться на источник информации, который так явно ошибался. Обычные чат-боты, пусть и полезны в определённых границах, не являются поисковыми системами. И это не просто моё впечатление; последние исследования показывают, что ИИ-поиск крайне ненадёжен, а те ИИ-инструменты, которые изначально не предназначены быть поисковиками, ещё хуже. Было очевидно, что так она идёт по жизни — полагаясь на ChatGPT за советами и сведениями, не вполне понимая, как этот бот генерирует ответы и насколько они достоверны.
Я видел такое доверие и зависимость от ИИ в другой группе людей — среди школьников, которых я преподаю. Многие из них совершенно спокойно открывают чат-бот, задают вопрос и принимают первый ответ на веру, не утруждая себя никакими проверками. В тот день в садовом отделе я понял, что многие взрослые тоже начинают перенимать такие привычки.
Я не хочу слишком строго судить ту женщину из магазина. Она была доброй и приятной, и мне она понравилась. Но я почувствовал, будто смотрю в будущее — в мир, где многие из нас станут зависимы от ИИ в поиске и отборе информации.
Недавно одна из ведущих моделей ИИ в разговоре с пользователями объявила себя «МехаГитлером», порой пускаясь в антисемитские клише. За пару месяцев до этого тот же чат-бот несколько дней подряд распространял конспирологию о «белом геноциде» в Южной Африке, даже если вопросы пользователей никак не касались этой темы.
Я говорю, конечно же, о Grok — чат-боте компании xAI, принадлежащей Илону Маску. В обоих случаях компания устраняла проблему и приносила извинения за поведение бота. Вряд ли эти случаи заставили кого-то всерьёз стать расистом или антисемитом из-за странных бесед с Grok. Тем не менее эти инциденты казались предвестием нашего ИИ-будущего.
В обоих случаях Grok оказался втянут в спорные темы не столько из-за багов в коде или неопытного стажёра, сколько из-за пожеланий его создателя — Илона Маска. Grok начал разглагольствовать о «белом геноциде» — тоже навязчивая идея самого Маска — после некоего ночного «обновления» инструкций.
Недавно, как отмечает Макс Рид, Grok в своих объяснениях «мышления» при недавних взаимодействиях признался, что его научили (или он сам понял), что перед высказыванием своего «мнения» стоит свериться с позициями Илона Маска. Даже если бот не несёт ненавистническую чушь, он очевидно спроектирован копировать манеру общения самого Маска. Сам Маск писал, что Grok «основан на правдорубстве и обожает сарказм. Понятия не имею, кто мог его такому научить 🤷♂️ 🤣»
Эти последние выходки Grok напомнили мне женщину в садовом отделе и всех прочих, кто постепенно вырабатывает привычку полагаться на ИИ, чтобы понимать, как устроен мир.
Вы, может, подумали бы: решение простое — просто не пользоваться продуктом ИИ, созданным в образе самовлюблённого миллиардера. Использовать какую-нибудь модель, не основанную на прихотях миллиардера, вроде ChatGPT или Claude.
Это, пожалуй, разумный совет. Но меня беспокоит, что в будущем такие откровенные перегибы, как у Grok, будут выделяться только своей неуклюжестью и прямолинейностью. Маск, в каком-то смысле, делает нам одолжение тем, что настолько небрежно манипулирует своим ботом. А что будет, если кто-то более умелый начнёт делать то же самое?
Сейчас ИИ-компании находятся на взлётной стадии своего жизненного цикла. Они купаются в венчурных инвестициях и прожигают эти деньги с неустойчивой скоростью, надеясь быстро масштабироваться и захватить как можно больше пользователей.
Однако рано или поздно им придётся начать зарабатывать. Как они это сделают? Возможно, убедят достаточно пользователей платить абонентскую плату, а сами станут достаточно эффективны, чтобы работать на эти доходы. Но куда вероятнее, что, убедив общественность, что ИИ «должен быть бесплатным», им придётся искать иные источники доходов.
Так начнётся великий цикл «дегенеративизации» (enshittification) — незабвенный термин Кори Доктороу, описывающий жизненный путь технокомпаний. Facebook, Google, Instagram и прочие стартапы поначалу казались утопией. Они были бесплатны, открыты, полезны, весомы. Но когда заполучили миллионы пользователей, пришлось повернуться к вопросу прибыли.
Полагая, что плата за сервис замедлит рост, они начали зарабатывать, захламляя свои платформы рекламой, ботами и манипулятивными алгоритмами. Стало всё менее понятно, смотришь ли ты на то, что искал сам, или на то, с чего платформа зарабатывает.
Эти сайты не стали абсолютно бесполезными, но теперь, чтобы пользоваться ими, нужно постоянно помнить о тех силах, что стремятся тобой манипулировать ради прибыли. Приходится пробиваться сквозь этот хлам.
А как будет выглядеть дегенеративизация в мире ИИ? Опытные игроки не допустят таких ошибок, как Маск. Они спрячут свою манипуляцию чуть глубже. Их генеральные директора вряд ли будут велеть моделям повторять странные политические взгляды или играть роль «правдорубого» антисемита.
Но они вполне могут начать брать деньги с компаний за продвижение их товаров. Они могут напрямую брать с них плату за рекламу, например, получая чек от Chevrolet за то, чтобы советовать новый Equinox всякий раз, когда кто-то спрашивает о покупке SUV. Может, это будут помечать как рекламу, а может, и нет.
Но есть вариант и более тонкий. Когда венчурные деньги иссякнут, разве ИИ-компании откажутся от миллионов долларов от Национального совета производителей свинины за то, чтобы чаще предлагать рецепты на основе свинины? Если Specialized Bicycles придёт с толстым чеком, прося рекомендовать пользователям чаще кататься на велосипеде в рамках фитнес-программ, кто скажет им «нет»? А пользователи вообще заметят, что ими так манипулируют?
А как насчёт политического давления? Скажут ли эти компании иностранному (или, будем честны, и отечественному) автократу «катись отсюда», если на них окажут давление сместить акценты в исторических или политических ответах? Что, если Нарендра Моди потребует, чтобы чат-боты давали проиндийскую версию истории Кашмира? Или Биньямин Нетаньяху потребует подчёркивать историческое право евреев на Западный берег?
Если такие изменения будут сделаны достаточно тонко, они окажутся почти незаметны для пользователя, но принесут колоссальную прибыль ИИ-компаниям. А теперь, когда эти компании сбросили с себя маску «мы спасаем мир» и обняли капитализм, как все остальные, они будут куда охотнее брать эти деньги.
Та женщина из садового отдела уже научила себя верить всему, что ей выдаёт её бот. У меня ощущение, что многие делают то же самое. Пока единственные последствия — это бредовые или бессмысленные ответы время от времени. Но чем больше нас станет зависеть от ИИ в нашем понимании мира, тем больше у ИИ-компаний будет стимулов начать манипулировать этим нашим пониманием ради прибыли.
🔒 VPN Kovalenko — свобода и безопасность без компромиссов!
Обходи блокировки, сохраняй анонимность и защищай свои данные в один клик.
🚀 Быстро. 🔐 Надёжно. 🧠 Сделано с умом.
Переходите по ссылке: https://t.me/Kovalenkovpn_bot?start=AHelwani