Неудачные попытки использования искусственного интеллекта в работе убеждают, что он не просто бесполезен, но и банально вреден. Речь идет даже не об астрофизике или молекулярной биологии, а о простейших запросах.
Google Gemini, например, вместо Портсмутского договора, завершившего Русско-японскую войну 1904–1905 годов, описал события, которые не происходили и не могли произойти, то есть соврал (или галлюцинировал, как обтекаемо называют ложь ИИ разработчики). По версии ИИ, чтобы подписать акт о капитуляции России и закрепить в договоре ее территориальные уступки и репарации, японская делегация в 1905 году прибыла в Петербург. Забавно, но по версии Gemini в 1855 году в столице Российской империи был подписан и Симодский договор.
Углубленный поиск в интернете с помощью ИИ оказался таким же мифом. Нужно было проанализировать данные из открытых источников о персонажах, упоминавшихся в публикациях. Но в ответ на запросы ИИ не выдал ровным счетом ничего, при этом каждая из моделей, к которым я много раз обращался, заверяла, что у этих людей нет даже профилей в социальных сетях. Найти профили самостоятельно при помощи обычного интернет-поисковика не составило труда и заняло минимум времени.
Сомнения в практической пользе ИИ и подозрения в раздувании маркетингового пузыря вокруг недоработанной технологии с целью привлечения инвестиций назрели, и я решил поэкспериментировать, задав вопросы ChatGPT. По поводу своей очевидной бесполезности чат выдал следующее: «Да, ИИ — это пузырь по всем формальным признакам». Перечисляет атрибуты пузыря: обещания, радикально превышающие реальные возможности; подмена понятий (интеллект вместо автодополнения); демонстрационные кейсы вместо устойчивых результатов; массовое внедрение до понимания, зачем и где это работает; агрессивный маркетинг, плюс страх пользователя отстать от прогресса. Затем ИИ идет еще дальше и говорит, что пузырь ИИ подпитывается институционально — властями, инвестфондами и корпорациями, им всем выгодно поддерживать этот нарратив, даже в тех случаях, когда эффективность ИИ сомнительна.
ChatGPT говорит мне, что провал ИИ будет трудно зафиксировать, поскольку «ошибка ИИ размыта, отсрочена, часто не имеет конкретного виновного, что позволяет пузырю жить дольше». Случится «тихое сворачивание ожиданий», ИИ будет переименован сначала в ассистента, а затем в автоматизацию. Стартапы исчезнут, и все вернется к узким, скучным инженерным применениям, как было с блокчейном, виртуальной реальностью, Web3 и big data.
В итоге после «тихого краха» останется не «искусственный интеллект», а генерация текста в низкорисковых зонах, помощь в написании кода, много разочарованных пользователей и ущерб от утраты доверия к информации. Последнее, как считает ChatGPT (и он прав), самое плохое последствие. И тут же оправдывается: «Проблема не в технологии, а в том, что общество согласилось на подмену понимания симуляцией; истина стала слишком дорогой. ИИ не создал этот кризис — он его обнажил и ускорил».
«Разговоры о пузыре ИИ сами превратились в пузырь, — говорит эксперт в области искусственного интеллекта и генеративных нейросетей, основатель компании Sherpa Robotics Константин Артемьев. — Ежедневно выходит очередная статья или пост о том, что скоро все рухнет, это фейк, ИИ не работает, давайте уже закрывайте лавочку. Но если посмотреть на историю технологий, становится очевидно — пузыри всегда сопровождали инновации. Например, железные дороги в конце XIX века. Там были и спекуляции, и большой крах, в общем, классический пузырь. Но, несмотря на все злоключения, железные пути и паровозы никуда не делись, они радикально изменили мир».
В качестве аргумента в пользу ИИ эксперт приводит взаимоотношение человечества со временем — когда-то людям не нужна была точность, и у часов была одна стрелка, говорит Артемьев: «То же с интернетом: пузырь доткомов лопнул в 2000-м, многие компании исчезли навсегда, многие бизнес-планы тех лет сегодня могут вызвать лишь улыбку, но Всемирная паутина стала инфраструктурой нашей современной жизни. Массовое телевидение, мобильная связь и так далее — везде был этап экзальтации и коррекции. Правда в том, что маркетинг бывает чрезмерным и может скрывать за собой пустоту. Адам Нойман из WeWork изображал из себя то ли гуру секты, то ли рок-звезду, при том что речь шла всего лишь о коворкингах — яркий пример. Хайп привлекает внимание, а вместе с ним деньги и таланты. Как будет дальше? ИИ, понятное дело, никуда не денется. Не все гипотезы подтвердятся, будут разочарования, но будут и новые инсайты. Так работает прогресс: через пробы, ошибки, постепенное накопление знаний. Все будет развиваться параллельными путями, от амбициозных проектов вроде Stargate, китайских государственных программ и поиска AGI (Artificial General Intelligence — гипотетический ИИ, обладающий самоконтролем. — “Москвич Mag”) до узкоспециализированных решений конкретных бизнес-задач. Да, это куда более скучно, чем обещания сингулярности и роста экономики трехзначными темпами, но это работает».
«Часто в качестве аргумента пузыря приводят объем инвестиций — они действительно огромны и подкреплены реальными деньгами, — говорит гендиректор “РТК Софт Лабс” Евгений Семенов. — Но эти средства в основном вкладываются не в абстрактную идею универсального интеллекта, а в инфраструктуру: вычислительные мощности, данные, платформы, инструменты разработки, безопасность и контроль. Даже если станет очевидно, что ИИ не решает всех задач и не может быть универсальным ответом на любые проблемы, эти вложения не исчезнут. Они останутся фундаментом для более узких, прикладных и управляемых сценариев».
Речь пойдет не о «сгоревших деньгах», а о перераспределении и отрезвлении, считает эксперт и допускает, что ИИ, скорее всего, не переживет резкого краха, а перейдет из фазы хайпа в фазу инфраструктуры. «Это всегда болезненный момент для рынка: приходится признавать ограничения и считать цену ошибок, кто-то понесет существенные издержки и уйдет с рынка, — говорит Евгений Семенов. — Станет окончательно понятно, что ИИ не может быть одновременно дешевым, точным и безопасным. Чем глубже ИИ будет проникать в финансы, госуслуги, медицину и корпоративное управление, тем жестче станут требования к данным, архитектуре, обеспечению безопасности и, конечно, прозрачности решений и ответственности за их последствия».
В этом смысле более точная аналогия для ИИ не доткомы, а блокчейн, отмечает Евгений Семенов и подчеркивает, что после пика ожиданий стало ясно, что блокчейн не «перевернул все», но занял свое инфраструктурное место там, где без него невозможно обойтись. «С ИИ происходит похожий процесс: уйдет ощущение магии и быстрых чудес, схлопнутся громкие обещания, но сама технология останется и станет базовым слоем цифровых систем — таким же привычным, как базы данных, сети или облака, — резюмирует эксперт. — В итоге выиграют не те, у кого окажется самая умная модель, а те, кто выстроит вокруг ИИ зрелую архитектуру: качественные данные, понятную цифровую идентичность субъектов, контуры доверия, прозрачные правила принятия решений и четко определенную ответственность за результат. В такой конфигурации ИИ перестает быть экспериментом и становится инструментом управляемости сложных систем».
«Один из базовых законов экономики гласит: риск пропорционален ожидаемой доходности, — говорит вице-президент по стратегии и новому бизнесу Компании развития общественных связей (КРОС) Ксения Касьянова. — Сегодня проекты в сфере ИИ — это ниша, где риски высоки, как и потенциальная прибыль. Риски возникают из-за того, что на рынке представлен широкий спектр разнородных проектов с ИИ-составляющей. При этом технологическая основа многих из них не всегда прозрачна, а успех в привлечении инвестиций часто зависит не от реальных рыночных перспектив, а от активности продавцов».
По словам Ксении Касьяновой, рынок переживает стадию, когда стартапы стремятся за счет маркетинговых инструментов привлечь как можно больше инвестиций, а инвесторы снизили порог критической оценки в ожидании сверхприбылей. В такой ситуации неизбежен сценарий, при котором многие проекты не выйдут на планируемые показатели прибыли и покинут рынок, часть инвестиций так и не окупится, что, по словам Ксении Касьяновой, и станет моментом, когда пузырь ИИ лопнет, а это в свою очередь приведет к обвалу цен и убыткам инвесторов.
Оценки перспектив технологии, не выдерживающей груза возложенных на нее задач и надежд, в целом сводятся к предсказаниям краха. Но к нему надо относиться не как к катастрофе, а скорее как к прозрению и спасению.
В понимании человека, работающего со смыслами, формулирующего и заключающего их в текст, ИИ выдает нечто ужасное, показывающее пропасть между истиной в человеческом понимании и «выводами» недоделанной машины. ИИ выдает следующее: «Массовое недоверие к тексту возникает не потому, что текст перестал быть носителем истины, а потому что стоимость отличения истинного текста от ложного стала неприемлемо высокой. Античные тексты противоречат друг другу. Средневековые хроники полны вымысла. Философские трактаты столетиями строились на ложных посылках. Научные тексты были неверны большую часть истории науки. Вывод: доверие к тексту как к истине — не норма, а краткий исторический эпизод — примерно XIX–XX века. Люди начинают думать не “этот текст плох”, а “любой текст может быть сгенерирован, значит, любой текст подозрителен”. Это катастрофическая логическая ошибка, и она массовая».
Но все не так: ИИ не создавал античные тексты, не писал средневековые хроники и философские трактаты и не совершал научные открытия. Люди доверяли тексту, написанному людьми. И прежде чем нейросеть попытается лишить нас этого наследия, пузырь ИИ должен лопнуть.
Текст: Алек Ахундов