Найти в Дзене

Почему самые умные люди планеты боятся того, что создали своими руками

Нобелевские лауреаты уходят из компаний, 1000 учёных требуют паузы, а CEO OpenAI просит его же регулировать. Разбираю, чего реально боятся люди, которые создают ИИ — без паники и конспирологии. В марте 2023 года больше 1000 исследователей подписали открытое письмо с требованием остановить разработку мощных ИИ-систем на шесть месяцев. Среди подписантов — Илон Маск, Стив Возняк, сооснователь Apple. Не школьники на форуме, не блогеры. Люди, которые сами строили эту технологию. Мораторий так никто и не объявил. Разработка продолжилась. GPT-4 вышел. Потом GPT-4o. Потом появился Claude, Gemini, Grok. Мир изменился за два года сильнее, чем за предыдущие двадцать. Но предупреждения никуда не делись. Они стали громче. Когда слышишь «ИИ опасен», первая реакция — скептицизм. Это звучит как сюжет голливудского фильма, а не реальная угроза. Но давайте разберём конкретно. Учёные говорят не про роботов-терминаторов. Они говорят про три вещи: 1. ИИ уже сейчас принимает решения, которые мы не понимаем
Оглавление

Нобелевские лауреаты уходят из компаний, 1000 учёных требуют паузы, а CEO OpenAI просит его же регулировать. Разбираю, чего реально боятся люди, которые создают ИИ — без паники и конспирологии.

В марте 2023 года больше 1000 исследователей подписали открытое письмо с требованием остановить разработку мощных ИИ-систем на шесть месяцев.

Среди подписантов — Илон Маск, Стив Возняк, сооснователь Apple. Не школьники на форуме, не блогеры. Люди, которые сами строили эту технологию.

Мораторий так никто и не объявил.

Разработка продолжилась. GPT-4 вышел. Потом GPT-4o. Потом появился Claude, Gemini, Grok. Мир изменился за два года сильнее, чем за предыдущие двадцать.

Но предупреждения никуда не делись. Они стали громче.

Что именно пугает учёных — и почему это не паранойя

Когда слышишь «ИИ опасен», первая реакция — скептицизм. Это звучит как сюжет голливудского фильма, а не реальная угроза.

Но давайте разберём конкретно. Учёные говорят не про роботов-терминаторов. Они говорят про три вещи:

1. ИИ уже сейчас принимает решения, которые мы не понимаем

Нейросети — это «чёрные ящики». Даже создатели не могут объяснить, почему модель выдала именно такой ответ. Алгоритмы управляют кредитными решениями, медицинскими диагнозами, судебными рекомендациями — и никто точно не знает, как они к этому пришли.

В 2016 году алгоритм COMPAS в США давал рекомендации судьям по срокам заключения. Исследование ProPublica показало: система вдвое чаще ошибочно помечала чернокожих подсудимых как «высокорисковых». Алгоритм никто не программировал быть расистским. Он сам научился на исторических данных.

2. Технология распространяется быстрее, чем правила её использования

Ядерное оружие создавалось в условиях жёсткой секретности. Контроль выстраивался параллельно с разработкой. С ИИ всё наоборот — инструменты доступны любому с ноутбуком и интернетом.

За один год с выхода ChatGPT появились тысячи инструментов для создания дипфейков, фейковых новостей, фишинговых писем. Не потому что кто-то хотел навредить — просто потому что стало возможным.

3. Гонка между компаниями убивает осторожность

Это, пожалуй, самое тревожное. Компании знают о рисках. Но если ты остановишься — конкурент обгонит. OpenAI, Google, Meta, Anthropic, китайские Baidu и DeepSeek — все жмут на газ.

Джеффри Хинтон, один из «отцов» глубокого обучения, в 2023 году ушёл из Google. Его слова: «Я утешаю себя обычным оправданием: если бы не я, это сделал бы кто-то другой».

Человек, без которого современного ИИ не существовало бы — и он сам не уверен, что всё сделал правильно.

Три реальных сценария, о которых говорят эксперты

Учёные не пишут сценарии в стиле «Терминатора». Они описывают конкретные, уже начавшиеся процессы.

Сценарий 1: Потеря контроля над системами принятия решений

ИИ уже управляет торгами на бирже, логистикой крупнейших компаний, военными дронами (в ряде стран — частично автономными).

Представьте: два конкурирующих алгоритма торговли начинают «учиться» друг на друге и в течение минут обрушивают рынок. Такое уже случалось — «Flash Crash» 2010 года унёс 1 триллион долларов капитализации за 36 минут. Сейчас систем стало больше, они стали умнее.

Сценарий 2: Оружие в руках плохих актёров

Создать убедительный голосовой дипфейк сейчас стоит ноль рублей и занимает 10 минут. Синтезировать видео с «признанием» политика — несколько часов.

В 2023 году в Словакии накануне выборов появился аудиофейк, где лидер оппозиции «обсуждает» фальсификации. Многие поверили. Выборы прошли — ситуацию удалось урегулировать. Но следующий раз может быть другим.

Сценарий 3: Экономический шок без подушки безопасности

McKinsey Global Institute оценивает: к 2030 году автоматизация может затронуть от 400 до 800 миллионов рабочих мест по всему миру. Это не значит, что столько людей потеряют работу — но она изменится до неузнаваемости.

Бухгалтеры, переводчики, копирайтеры, операторы колл-центров, часть врачей-диагностов — их функции уже сейчас частично закрываются нейросетями. Вопрос не «случится ли», а «как быстро» и «успеет ли общество адаптироваться».

Что говорят конкретные люди — не абстрактные «учёные»

Важно понимать: это не маргиналы и не конспирологи.

Джеффри Хинтон (лауреат Нобелевской премии 2024 года, «крёстный отец» нейросетей): оценивает вероятность того, что ИИ приведёт к «очень плохим исходам» для человечества, в 10–20%. Говорит, что эта цифра его пугает.

Элиезер Юдковский (исследователь безопасности ИИ, MIRI): один из самых пессимистичных голосов в теме. Считает, что без решения проблемы «выравнивания» (alignment) — то есть создания ИИ, у которого цели совпадают с человеческими, — мы движемся к катастрофе. Не через 100 лет. Через десятилетия.

Сэм Альтман (CEO OpenAI, человек, выпустивший ChatGPT): на слушаниях в Сенате США в 2023 году сам попросил регулирования. Дословно сказал, что если их технология «пойдёт не так» — это может быть очень плохо.

Это не страшилки. Это люди, которые создают технологию и понимают, что делают.

Главная проблема, о которой почти не говорят

Все споры об ИИ крутятся вокруг «что он умеет». Но реальный вопрос — кто принимает решения о том, как его применять.

Сейчас это 5–6 компаний, большинство из которых зарегистрированы в одной стране. Их модели используют миллиарды людей. Их ценности, приоритеты и бизнес-интересы встроены в каждый ответ системы.

Это не заговор. Это структурная проблема. Когда один инструмент формирует то, как миллиарды людей ищут информацию, принимают решения и общаются — важно, кто этот инструмент контролирует.

Чек-лист: что реально делается для снижения рисков

Хорошая новость — люди не просто предупреждают. Кое-что уже происходит:

  • ЕС принял AI Act — первый в мире закон о регулировании ИИ, вступил в силу в 2024 году
  • Созданы институты безопасности ИИ — в США, Великобритании, ЕС, Японии
  • Крупные лаборатории внедряют «красные команды» — специальные группы, которые пытаются взломать или обмануть свои же модели до выпуска
  • Появляются стандарты прозрачности — компании всё больше обязаны объяснять, как работают их системы
  • ⚠️ Но единого международного регулирования нет — и пока страны договариваются, разработка идёт вперёд

Вывод

Учёные предупреждают об ИИ не потому что боятся прогресса. Они боятся прогресса без правил.

Автомобили тоже когда-то были «опасной новой технологией». Потом появились ремни безопасности, светофоры, права и техосмотр. Миллионы людей ездят каждый день.

С ИИ мы находимся в моменте, когда машины уже мчатся, а правила дорожного движения ещё только пишутся. И скорость растёт.

Следить за этим стоит. Не чтобы пугаться — а чтобы понимать, в каком мире мы живём и куда он движется.

Как вы относитесь к теме ИИ? Считаете риски реальными — или это преувеличение? Напишите в комментариях, интересно узнать разные точки зрения.