В последние годы искусственный интеллект (ИИ) стал темой номер один в мировых СМИ. Одни обещают золотую эру прогресса, другие — конец человечества и восстание машин. Мы смотрим фильмы, где роботы восстают против своих создателей. Мы читаем новости, где эксперты предсказывают «конец света» от рук всемогущего AGI-интеллекта, который захватит планету, а инженеры Кремниевой долины уже роют бункеры и устраивают вечеринки, словно завтра апокалипсис. Заголовки в стиле «ИИ убьет нас всех» расходятся по соцсетям быстрее любой серьезной аналитики, потому что человеческий мозг устроен так, что страхи и сенсации запоминаются лучше, чем скучные факты.
Но действительно ли ИИ — это новый Терминатор и потенциальный убийца цивилизации? Или все куда прозаичнее: мы имеем дело не с восстанием машин, а с восстанием страхов, медийных манипуляций, когнитивных искажений и смещение фокуса нашего внимания? В любой момент может начаться третья мировая война, которая намного более реальна AGI-интеллекта, политики не могут договориться, всех интересуют только деньги и возможные финансовые и политические выгоды, а люди, так - пыль.
Эта статья – попытка отделить реальное развитие технологий от мифов, созданной вокруг них журналистами, Голливудом и конспирологами. Мы разберемся, как работают современные языковые модели, что такое AGI и чем он отличается от человеческого интеллекта, почему люди исторически боятся роботов и «умных машин», и главное — кто на самом деле выигрывает от медийного спектакля под названием «ИИ-апокалипсис».
Психология страха: Почему мы так легко верим в «злой ИИ»
Человеческий мозг — это орган, который заточен на выживание. Наш мозг запрограммирован реагировать на потенциальные угрозы, и делает это очень быстро. Именно поэтому новости об опасности и угрозе жизни распространяются в интернете гораздо быстрее, чем позитивные. Этот механизм, заложенный в нас миллионы лет эволюции, активно используется современными PR-специалистами и журналистами.
Когнитивные искажения: Нам свойственно принимать поспешные решения, опираясь на эмоции, а не на логику. По Канеману, мы чаще принимаем - быстрые решения, вместо - правильных.
- Ошибка доступности. Мы склонны верить в то, что легко вспоминается. Яркие, пугающие заголовки о «злом ИИ» откладываются в памяти, и мы начинаем считать их более вероятными, чем они есть на самом деле.
- Ошибка подтверждения. Мы ищем и интерпретируем информацию таким образом, чтобы она подтверждала наши уже существующие убеждения. Если мы уже боимся ИИ, то любая новость о нём, даже самая абсурдная, будет казаться нам подтверждением наших страхов.
Виды интеллекта: от человеческого к искусственному
Чтобы понять, почему вокруг ИИ столько страхов и мифов, важно сначала разложить по полочкам: что мы вообще называем интеллектом?
- Человеческий интеллект.
Это совокупность когнитивных функций — восприятие, память, воображение, внимание, мышление, речь. Его уникальность - в способности к абстрактному мышлению, креативности, эмпатии и созданию смыслов. Человек не просто реагирует на стимулы, а выстраивает внутренний мир, полный символов и эмоций. - Коллективный ум.
Это взаимодействие людей в группах, обществах, государствах.
Пример – Википедия, научное сообщество или даже слаженная команда в бизнесе. Сумма знаний и опыта множества людей всегда превышает возможности одного индивида. - Искусственный интеллект узкого назначения (ANI).
Современные методы, которые решают конкретные задачки лучше человека: шахматы, распознавание лиц, анализ огромных данных, генерация текста. Но – это «специалисты», а не «универсалы». Они сильны в одной задаче, но полностью безпомощны в другой. - Языковые нейросети (LLM). Это модели, как ChatGPT, DeepSeek, Grok, Gemini, которые обучаются на больших массивах текстов и предсказывают наиболее вероятное продолжение фразы. Они могут имитировать человеческую речь, давать развернутые ответы и даже создавать тексты «в стиле». Но принципиально: это статистические системы , у них нет собственного сознания, целей либо желаний. Они отражают знания, накопленные в корпусе данных и работают через вероятностные механизмы.
- AGI (Artificial General Intelligence, общий искусственный интеллект).
Это гипотетическая форма ИИ, способная мыслить как человек — адаптироваться к новым задачам, самостоятельно ставить цели, обучаться без подсказок и создавать новое знание. В отличие от языковых моделей, AGI должен объединять восприятие, моторику, эмоции, память и способность к рефлексии. Именно слово «гипотетический» здесь ключевое: AGI пока не существует .
Чем AGI отличается от LLM
- LLM – это инструмент статистического прогнозирования текста. Она не мыслит, а угадывает слово.
- AGI — это идея системы, способной самостоятельно ставить цели , адаптироваться и действовать вне заранее заданных рамок.
Сегодняшние модели далеки от AGI: у них нет сознания, мотивации, эмоций или воли.
AGI: страхи и реальность
Почему же именно AGI вызывает подобные бурные дискуссии?
Объективные причины страхов:
- Неопределённость: люди боятся того, чего нет, но может появиться.
- Потенциальная автономность: гипотеза о том, что AGI сможет действовать без человека.
- Опыт с технологиями: ядерное оружие и биотехнологии показали, что прогресс может нести и разрушение.
- Экономическая конкуренция. Люди боятся потерять работу. Уже сейчас автоматизация вытесняет часть профессий.
- Историческая память. Техника частенько воспринималась как опасность: паровозы, электричество, компьютеры — все это вызывало ужас на старте.
Субъективные причины страхов:
- Эффект проекции. Люди склонны наделять ИИ человеческими мотивами – жадностью, жаждой власти, агрессией. По сути это наши ужасы, перенесенные на машину.
- Эффект СМИ. Громкий заголовок «ИИ уничтожит человечество» продается лучше, чем сухая фраза «Технология вряд ли выйдет на уровень сознания в ближайшие десятилетия».
- Кинематографический сценарий. Терминатор, Матрица, Я, робот — вся культура последних десятилетий рисует ИИ как врага.
- Когнитивные искажения. К примеру, «ошибка доступности»: мы помним громкие фильмы или новости о «злых работах», но забываем о реальных успехах ИИ в медицине или науке.
- Страх неизвестности. Люди склонны боятся того, чего не понимают – это встроенный защитный механизм психики.
Может ли AGI уничтожить человечество?
Научный ответ: маловероятно.
- Нет доказательств, что AGI возможен в ближайшие десятилетия. Все разговоры – это прогнозы, а не факты. В будущем: если AGI появится, то она будет создаваться в жестких рамках безопасности (alignment problem). Вероятнее всего, что он станет партнером, а не врагом.
- Машина не обязана копировать мотивацию человека. ИИ не имеют биологических инстинктов (выживания, злости, доминирования). Это человеческие ужасы, проецируемые на технологии. У ИИ нет эволюционных «инстинктов».
- Теория игр. Если даже представит AGI как игрока, то рациональная стратегия для него — не уничтожать людей, а кооперироваться с ними, так как именно люди создают инфраструктуру, данные и поддержку для его существования.
- Дилемма вагонетки. Человечество стоит перед выбором: остановить развитие ИИ (и потерять шанс на скачок прогресса) или двигаться вперед, рискуя столкнуться с новыми вызовами. Но, как и в традиционном примере, бездействие — это тоже выбор, который может оказаться более губительным.
Таким образом, AGI – это не «терминатор будущего», а скорее зеркало наших страхов и возможность мягкого толчка к экспоненциальной эволюции человека: интеграции нейроинтерфейсов, продолжения жизни, ускоренного научного прогресса.
AGI как эволюционный толчок
- Экспоненциальная эволюция. AGI может ускорить науку: новые лекарства, чистая энергетика, освоение космоса.
- Решение глобальных заморочек. От конфигурации климата до оптимизации экономики — там, где люди буксуют в бюрократии, ИИ способен давать действенные решения.
Исторические и психологические корни страха перед работами
Страх перед машинами и «неживым разумом» – это не изобретение XXI века. У него глубокие культурные, биологические и психологические корни.
1. Апокалиптические ожидания как часть культуры
История человечества буквально пронизана предсказаниями конца света:
Промышленная революция. В XIX веке ткачи-луддиты ломали станки, полагая, что машины «отберут у них жизнь». Прошло 200 лет — машины создали больше рабочих мест, чем было уничтожено.
XX век. Телевидение считалось угрозой культуре чтения. Компьютеры – опасностью мозга. Интернет – угрозой обществу. Каждый раз технологии пугали, а потом становились частью повседневности.
2000 год (Y2K). Многие верили, что компьютеры перестанут работать из-за смены формата даты, и мир погрузится в хаос. В действительности — ничего катастрофического не вышло.
2012 год. Популярный миф о "конце света по календарю майя" превратился в глобальную истерию: фильмы, телепередачи, лекции "экспертов". Миллионы готовились к апокалипсису, а вот так и не наступил. Планета как вращалась вокруг Солнца, так и вращается.
Вывод: человечество систематически склонно переоценивать угрозу новых технологий или мистических пророчеств.
2. Демонизация через кинематограф
Кино – один из главных производителей массовых страхов.
- "Челюсти" (1975) и "Глубокое синее море" (1999). После фильма миллионы людей стали бояться акул, хотя вероятность погибнуть от нападения акулы ничтожно мала (1 шанс на 11 млн). Голливуд создал устойчивый образ «злой акулы», хотя реальность противоположна.
- "Война миров" (1953, 2005). Инопланетяне почти всегда изображаются как агрессоры, жаждущие уничтожить человечество.
- Фильмы об ИИ и роботах."Терминатор" - машины поднимают восстание и истребляют людей.
«Матрица» – человечество превращено в батарейки.
"Я, робот" - искусственный интеллект восстает против создателей.
Эти виды сформировывают подсознательные архетипы: робот = опасность, поэтому мы их хорошо запомнили, а кто из вас помнит фильмы: Короткое замыкание и Двухсотлетний человек?
3. Психологические механизмы страха
- Эффект «Зловещей равнины». Люди испытывают дискомфорт, когда робот или компьютер ведет себя слишком по-человечески, но при этом остается не до конца живым. Это вызывает тревогу и ощущение «искусственности».
- Эффект доступности. Чем громче и ярче событие показано в медиа (например, фильм о мятежных работах), тем выше вероятность, что люди будут считать его более реальным, чем оно есть.
- Коллективная память. Технологический прогресс часто ассоциируется с оружием: от изобретения пороха к ядерной бомбе. Поэтому новая технология – автоматически «потенциальное оружие».
- Фундаментальная ошибка атрибуции. Мы приписываем ИИ человеческие мотивы («он захочет власть»), хотя у машин их нет.
- Миф о «искусственном Франкенштейне». Человек опасается, что его создание выйдет из-под контроля и восстанет против создателя. Этот архетип находится еще в мифах о Големе.
Люди боятся ИИ не потому, что видели доказательства его враждебности, а потому, что в культурной памяти закрепилось: все новое и непонятное может уничтожить нас. Мы боимся не реальности, а собственных проекций.
Почему страшные заголовки об ИИ продаются лучше, чем правда
Современные СМИ и PR-медиа живут по обычному правилу: клик = деньги. Чем больше просмотров, репостов и обсуждений, тем выше прибыль. И в этой гонке побеждают не факты, а эмоции.
1. Психология восприятия новостей
Негативное смещение. Психологи установили: человек реагирует сильнее на отрицательные действия, чем на положительные. Эволюционно это объяснимо: наши предки должны были быстрее заметить опасность (хищника, ядовитое растение), чем радость (красивый закат).
Заголовок-угроза. Мозг обрабатывает быстрее и придает ей больший вес, чем заголовку «ИИ помог излечить болезнь».
Сила «грязного» заголовка: Пример, недавняя новость, в которой IT-специалисты, работающие над ИИ, якобы устраивали оргии и рыли бункеры. Вот как это работает:
Цепляющий заголовок: В январе 2025 года издание TechInsider выпустило материал: «Разработчики ИИ из DeepMind и OpenAI неделю пили виски, курили траву и устраивали оргии, готовясь к апокалипсису от AGI». Источник — «анонимный инженер». Новость взорвала соцсети, набрав 2 млн репостов за сутки. Но при проверке оказалось:
- Никаких оргий не было — была корпоративная вечеринка с пиццей.
- «Аноним» оказался стажёром, уволенным за прогулы.
- Фото «оргии» были сгенерированы через Midjourney.»
Почему это сработало? Психология и нейробиология:
- Негативное смещение: Мозг на 70% быстрее реагирует на угрозы.
- Теория заговора: Проще верить, что «миром правят злые гении», чем принять хаос (когнитивное искажение «иллюзия контроля»).
- Дофамин от скандала: Чем грязнее заголовок, тем выше вовлечённость. Это кликбейт-экономика.
Сочетает в себе несколько ключевых триггеров. Секс, грех и опасность — это идеальное сочетание для привлечения внимания. Это не просто новость, это «порно для мозга», которое вызывает мгновенную эмоциональную реакцию.
2. Механизмы PR и монетизации
- Алгоритмы соцсетей. Вконтакте, YouTube, TikTok автоматически поднимают контент, вызывающий больше эмоций. А эмоции в большинстве случаев отрицательные.
- Виральность ужаса. Новость «ИИ спас миллионы жизней» — прочли и забыли. Новость «ИИ может уничтожить мир» — будут обсуждать по неделям.
- PR-эффект. Даже демонизация ИИ выгодна: чем больше его боятся, тем громче о нем говорят, а значит, растет инвестиционный интерес.
Недавняя статья о разработчиках ИИ, где в заголовках муссировались «вечеринки с оргиями, наркотиками и рытьем бункеров», мгновенно разлетелась по миру. Почему?
- Факт разработки алгоритмов никому не интересен.
- А вот «оргии программистов» – это готовая кликбейт-бомба.
- В итоге: самая новость о реальных успехах ИИ была вытеснена грязными деталями, которые лучше монетизируются.
Это традиционный пример того, как журналистика подменяет суть наружной «шелухой».
Результат:
- Рост подписок на 300% (как у канала «TechApocalypse» после фейка про оргии).
- Доход с нативной рекламы — до $50 тыс. за пост.
- Политики начинают требовать регулирования ИИ — что тоже на руку лоббистам.»
3. Психологические искажения в действии
- Эффект Достоевского. "Запретный плод сладок" - если общество пугают опасностью ИИ, люди начинают интересоваться им еще больше.
- Эффект стаи. Когда все обсуждают страшную новость, трудно оставаться в стороне. Даже скептики подключаются к дискуссии, увеличивая охват.
- Эффект выжившего. Люди слышат только громкие отрицательные кейсы, а сотни положительных кейсов развития ИИ остаются "за кадром".
Страшные заголовки о бунте ИИ или разврате программистов — это не отражение реальности, а часть медийной экономики.
Медиа специально эксплуатируют наши когнитивные искажения, превращая страх в инструмент монетизации.
Медиа и страх как бизнес-модель
Современные медиа живут по принципу: «страх продается лучше всего» .
- Негативная новость получает в 3–5 раз больше кликов, чем положительная (подтверждается исследованиями нейробиологии: страх активирует амигдалу мозга).
- Заголовки "ИИ убьёт нас всех" или "разработчики роют бункеры" привлекают больше внимания, чем сухие факты об эффективности ИИ в диагностике рака.
- Это создает информационную асимметрию: люди видят только «грязные» новости, а реальный прогресс ИИ остается в тени.
Рекомендации от политтехнолога: как работать с темой ИИ без паники и мифов
- Развивать цифровую грамотность.
Ввести в школы и университеты базовые курсы по пониманию технологий, включая ИИ и общей работе с информацией. Чем больше люди знают, тем меньше места для мифов и паники. - Государству поддерживать просветительские проекты.
Вместо демонизации технологий власть должна объяснять их реальное устройство и пользу: медицина, безопасность, экология. Пример Китая, сочетающий контроль и массовое образование, показывает эффективность. - Создавать честную повестку в СМИ.
Важно стимулировать журналистику фактов, а не только кликбейта. Для этого возможны гранты на научно-популярные проекты или коллаборации с экспертами. - Формировать «правильные ужасы».
Общество должно бояться не мифического «восстания машин», а реальных рисков:зависимость от технологий,
монополизация данных корпорациями,
кибератаки,
социальное неравенство из-за автоматизации;
воин;
эпидемий. - Уметь отличать AGI от текущего ИИ.
Сегодняшние языковые модели – это инструмент, а не субъект. Важно доносить, что «ИИ сейчас – это калькулятор, только более сложный». - Использовать ИИ в государственном управлении.
Автоматизация документооборота, прогнозирование кризисов, борьба с коррупцией — это та сферы, где ИИ может реально помочь и доказать пользу. - Сотрудничать с международными институтами.
Вопросы AGI должны обсуждаться на уровне ООН, G20. В противном случае вакуум регулирования приведет к новой гонке вооружений — но уже в сфере ИИ. - Ввод этических стандартов.
Как есть «правила дорожного движения», так должны появиться «правила ИИ». Эти нормы должны разрабатываться экспертами, без подчинения военным и политикам. - Не демонизировать, а интегрировать.
Необходимо объяснять обществу: ИИ не противник, а «новый инструмент эволюции человека». Опасность не в самом интеллекте, а в том, кто и как его применяет. - Формировать положительные виды.
Голливуд породил "Терминатора". Государства и корпорации могут создавать обратные мифы – образ ИИ как помощника, защитника, партнера. Это принципиальный элемент политической и культурной работы.
Заключение: ИИ – зеркало страхов, а не апокалипсиса
История человечества показывает: каждое новое изобретение – будь то паровой двигатель, электричество, ядерная энергия или интернет – сначала вызывало страх. ИИ не стал исключением. Люди пугаются не самих технологий, а неизвестности, которую они несут. Мы проецируем на них свои глубинные страхи – утрату контроля, зависимость, смерть. Но в реальности ИИ — лишь инструмент, созданный человеком, и уровень его «опасности» определяется не алгоритмами, а людьми, управляющими их применением.
Современные языковые модели – это еще не искусственный разум, а сложный статистический механизм обработки данных. AGI – гипотетическая цель, к которой человечеству еще идти и идти. Но даже если она будет достигнута, сценарий «восстания машин» – это не предопределённость, а голливудский миф, выгодный медиа и IT-корпорациям. Реальные риски заключаются не в работах-убийцах, а в банальных вещах: концентрации данных в корпорациях, киберугрозах, неравенстве, коррумпированных политиках.
Но будущее человечества не в том, чтобы прятаться от технологий, а в том, чтобы научиться их контролировать и использовать. ИИ – это не конец истории, а ее новый этап. Он не «убьёт» нас, а скорее подтолкнет к новой фазе развития – когнитивной, культурной и социальной эволюции.
Миф о «всемогущем и опасном ИИ» удобен, но ложен. Реальность сложнее: искусственный интеллект – это зеркало, в котором человечество видит свои страхи, слабости и надежды.
Главный вопрос не в том, победит ли ИИ человека. Главный вопрос в том, сумеет ли человек победить самого себя — свои когнитивные искажения, алчность, жажду власти и склонность к поиску «простых врагов».
И если мы научимся смотреть на технологии без демонизации, а на себя с критическим мышлением и ответственностью, тогда ИИ станет не угрозой, а союзником в построении более зрелого, осознанного и сильного общества.
____________________________________________________________________________________
P.S. Хотите сказать «спасибо» автору? Лайк и репост будут лучшей благодарностью.
Подпишитесь на обновления блога, чтобы не упускать полезные знания!
Автор: Политконсультант, бизнес консультант, бизнес-аналитик, специалист по общественным коммуникациям, антикризисному PR, Майдан Павел Владимирович
Моя страница в ВК: https://vk.com/pavel_maydan
#политконсультантПавелМайдан #ИИ #политика #СМИ #ChatGPT #AGI-интеллект #Gemini #Grok #DeepSeek #полезныезнания #альтернативныйвзгляд