Найти тему

У древних шумеров был религиозный обычай. В начале строительства важного здания по указанию жреца в определенной точке вбивался кол. Колу (вернее нужному богу, пусть это будет Энке) приносили дары. После окончания стройки жрец один заходил со статуей искомого бога в здание и с этим богом, собственно разговаривал. На выходе жрец вытирал пот со лба и передавал народу пожелания божества. Говорил ли непосредственно бог со жрецом – это уже не так важно. Куда важнее, что жрецы этой и подобными традициями доказывали народу собственную уникальность.


Я это к чему все рассказал. Последние полгода нас с вами просто с ног сносит потоком экспертных предсказаний о будущем генеративного ИИ. То в СМИ утекают новости о том, что разработчикам Open AI удалось сделать настолько устрашающее открытие, что Альтмана чуть не уволили. Что-то настолько ужасное и тайное, что ни один сотрудник даже анонимно не поведал Reuters детали. Лавкрафта читали? Вот и я о том же.

Потом 13 бывших сотрудников той же несчастной Open AI в открытом письме предупреждают сильных мира сего о том, что компании, разрабатывающие ИИ-решения, должны быть прозрачными для регуляторов, а сам ИИ нужно держать под контролем, иначе человечество ждет смерть.

Проходит буквально неделя, и весь мир обсуждает 165-страничное предсказание бывшего сотрудника Open AI Леопольда Ашенбреннера Situation Awarness. The Decade Ahead о том, как искусственный интеллект сначала осознает себя, а затем и превзойдет по своим возможностям как отдельного человека, так и все человечество. Такой ИИ сможет кратно ускорить все исследования в мире. Ашенбреннер торжественно предупреждает, что обладание таким ИИ станет сродни владению секретом производства водородной бомбы. А помните, в какой еще книге очень подробно описывался конец существования человечества? Дээээ

Незадолго до этого журнал Time выход с большим текстом под интригующим заголовком «AI Poses Extinction-Level Risk, State-Funded Report Says». В нем говорится об отчете, подготовленным по заказу правительства США. В документе (вот сюрприз) также говорится о том, что неподконтрольное развитие ИИ угрожает национальной безопасности. А еще ИИ также сравнивают с ядерным оружием. Именно с ядерным оружием. Раз за разом.

Что все это значит, сказать сложно. Однако кое-какую пищу для размышлений нам могут дать две цифры.

Первая – капитализация Nvidia (крупнейший в мире производитель оборудования для обучения ИИ) 6 июня превысила $3 трлн. Еще в феврале этот показатель был равен $2 трлн. Это практически в пять раз больше капитализации компании TSMC – производителя микроэлектроники, в случае исчезновения которого большинство разработок Nvidia станут бесполезными. А еще это 8 цен ASML – компании, без существования которой большая часть микроэлектронных заводов встанет.

Вторая – по итогам 2023 года глобальный венчурный рынок упал на 35% год к году и составил составил $345,7 млрд. При этом финансирование ИИ-стартапов в 2023 году выросло только в США – на 14%. в Европе оно упало на 29%, а в Азии – на 61%. Удивительные несостыковки, не так ли? Как так выходит, что опытные инвесторы чуть ли не по всему миру слабо верят в подобные проекты?

По мне, так все происходящее в публичным поле с генеративным ИИ напоминает, ребятки занимательную информационную компанию. Нас зачем то убеждают в двух вещах. Во-первых ИИ скоро превзойдет человечество, а во-вторых если не регулировать ИИ, то мы все однозначно и точно умрем. При чем регулировать ИИ должны очень умные и очень ответственные джентльмены из крупных корпораций и западных министерств. Иначе ничего, естественно, не получится.

При чем месседжи об ужасах искусственного интеллекта смешиваются с элементами массовой культуры и архетипами. В каких то случаях - это страх перед неизвестностью, который в своем творчестве использовал Лавкрафт, в каких-то — это отсылки к религиозному контексту с его концом света Гееной огненной, а в некоторых случаях даже легкие кивки массовой культуре. Скажи вслух «искусственный интеллект поработил людей» и мы с вами тут же вспомним с десяток фильмов об этом.

Такие дела, ребятки
3 минуты