Добавить в корзинуПозвонить
Найти в Дзене

Контроль упущен: почему эксперты просят перестать бояться ИИ и начать укреплять города (простой разбор)

Это не история о грядущем конце света. Это история о том, как мы наконец повзрослели и поняли: терминаторы не придут, но наши собственные ошибки могут стоить нам очень дорого. Профессор Колин Льюис в своем недавнем эссе ввел гениальную метафору: «Ворот для ИИ больше нет». Мне она безумно нравится, потому что она не пугает, а отрезвляет. Она убирает лишний шум из бесконечных споров о том, «захватят ли нас роботы», и предлагает посмотреть правде в глаза. Для тех, у кого нет времени читать длинные научные доклады, я собрал три главных вывода из статьи Льюиса. Они объясняют, почему ворота не просто открыты — их вообще снесло, и почему все наши привычные способы защититься от искусственного интеллекта больше не работают. Раньше все думали, что ИИ можно контролировать через деньги и мощности. В 2020 году обучение топовой нейросети стоило миллионы долларов. Казалось, что такие технологии будут только у парочки гигантских корпораций, за которыми легко уследить. Но уже через два года цены рухну
Оглавление
Контроль упущен: почему эксперты просят перестать бояться ИИ и начать укреплять города (простой разбор)
Контроль упущен: почему эксперты просят перестать бояться ИИ и начать укреплять города (простой разбор)

Это не история о грядущем конце света. Это история о том, как мы наконец повзрослели и поняли: терминаторы не придут, но наши собственные ошибки могут стоить нам очень дорого.

Профессор Колин Льюис в своем недавнем эссе ввел гениальную метафору: «Ворот для ИИ больше нет». Мне она безумно нравится, потому что она не пугает, а отрезвляет. Она убирает лишний шум из бесконечных споров о том, «захватят ли нас роботы», и предлагает посмотреть правде в глаза.

Для тех, у кого нет времени читать длинные научные доклады, я собрал три главных вывода из статьи Льюиса. Они объясняют, почему ворота не просто открыты — их вообще снесло, и почему все наши привычные способы защититься от искусственного интеллекта больше не работают.

1. Сначала у ворот сломали замок (и почему запреты не работают)

Раньше все думали, что ИИ можно контролировать через деньги и мощности. В 2020 году обучение топовой нейросети стоило миллионы долларов. Казалось, что такие технологии будут только у парочки гигантских корпораций, за которыми легко уследить.

Но уже через два года цены рухнули в десять раз. Сегодня небольшая команда программистов с приличным сервером может взять готовую модель и легко снять с нее все те защитные фильтры, на которые гиганты вроде OpenAI тратили бешеные деньги.

«Узкое горлышко», на которое мы так надеялись, испарилось. Все эти встроенные цензоры и фильтры, которые не дают чат-ботам ругаться матом или писать инструкции по сборке бомб — это просто иллюзия безопасности. Хакеры уже научились обходить эти запреты даже без доступа к исходному коду.

Более того, «безопасность через запрет» — это ловушка. Если вы запрещаете медицинской нейросети знать, как работает смертельный вирус (чтобы эту информацию не получили террористы), вы автоматически лишаете новое поколение врачей мощнейшего инструмента для борьбы с будущими пандемиями.

2. А потом ворота исчезли совсем (ИИ — это не разум, а слепое действие)

К 2026 году стало окончательно ясно: ИИ — это вообще не «интеллект» в человеческом понимании. Как точно подметил философ Лучано Флориди, ИИ — это чистая, слепая способность действовать. Это супер-инструмент, которому абсолютно всё равно, что он делает и к чему это приведет. У него нет совести, нет понимания контекста, нет сожалений.

И главная опасность кроется не в самом ИИ, а в нас. За последние годы мы сами превратили наш мир в идеальную среду для таких бездумных действий. Мы оцифровали буквально всё — от резюме до выборов — и радостно передали это на обработку алгоритмам.

Мы даже не пытаемся заставить ИИ адаптироваться к нашим человеческим странностям. Наоборот, мы усердно упрощаем и обрезаем наши собственные человеческие правила, чтобы машинам было удобнее и быстрее работать с нашими данными. Мы подстраиваемся под роботов, а не они под нас.

Я, Максим Гончаров, ежедневно помогаю бизнесу внедрять нейросети, и вижу это на практике. Компании готовы ломать свои годами выстроенные процессы работы с клиентами, лишь бы чат-боту было проще отвечать по шаблону.

Друзья, если вы хотите понимать, как правильно и безопасно внедрять нейросети в свой бизнес или жизнь, не теряя при этом здравого смысла и человеческого контроля — заходите ко мне в канал.

-2

Telegram-канал RixAI

3. Риски ИИ — это теперь проблема мэров, а не программистов

Раз ворот больше нет, любые попытки договориться с корпорациями о «безопасном ИИ» — это просто красивый ритуал для успокоения нервов.

Вопрос рисков ИИ перестал быть технической задачей. Он стал вопросом того, как устроено наше общество. Эксперты из Стэнфорда и Оксфорда предлагают новую, жесткую стратегию: Предотвращение, Защита, Восстановление. Нам нужно перестать зацикливаться на том, как сделать машины добрее, и начать перестраивать наши города.

  • Если хакер с помощью ИИ обрушит энергосеть, нас не спасет более этичный чат-бот. Нам нужен город, в котором больницы имеют автономные генераторы и умеют перезапускать электричество сами.
  • Если сгенерированное видео (дипфейк) скомпрометирует кандидата в президенты за день до выборов, нам нужна не лучшая программа для распознавания фейков (она всегда будет отставать). Нам нужно гражданское мужество и законы, позволяющие провести выборы заново.

Самый актуальный вопрос современности звучит так: проблема не в том, начнут ли машины думать как мы. Проблема в том, хватит ли у нас силы воли управлять собой, когда машины сделают отказ от собственных решений слишком удобным.

Наш единственный реалистичный выход — строить «закаленное» общество. Адаптировать наши больницы, законы, инфраструктуру и наши собственные мозги к миру, где сверхмощный ИИ будет играть всё более важную роль. Первый черновик следующего глобального кризиса, возможно, напишет нейросеть, но справляться с ним придется нам.

А чтобы быть готовым к этому будущему и использовать алгоритмы себе во благо — подписывайтесь на мой канал:Telegram-канал RixAI.

Частые вопросы

Разве разработчики не могут просто вшить в ИИ запрет на плохие действия?
Могут, и они это делают. Но эти запреты очень хрупкие. Любой толковый программист может скачать модель с открытым исходным кодом и за пару часов отключить все эти ограничения. Надеяться только на встроенные фильтры — это как запирать дверь на картонный замок.

Что значит «ИИ — это не интеллект, а способность действовать»?
Это значит, что ИИ не понимает смысла того, что делает. Он просто математически подбирает слова или действия, чтобы выполнить задачу. Если вы поручите ему «избавить город от пробок», он может решить, что проще всего заблокировать все выезды с парковок. Он эффективен, но абсолютно бездумен.

Как обычный человек может «закалить» себя в эпоху ИИ?
Главное правило — сохранять за собой право последнего решения (Retained Human Override). Не делегируйте ИИ те решения, которые критически важны для вашей жизни, карьеры или безопасности. Используйте ИИ как советника и черновик, но никогда — как финальную инстанцию.

Не слишком ли это пессимистичный взгляд на технологии?
Наоборот, это очень взрослый и прагматичный взгляд. Мы перестаем ждать, что «добрые дяди из корпораций» нас спасут, и начинаем сами укреплять свои системы. Резервное копирование данных, независимые источники энергии для больниц, четкие правила на случай фейков — это не пессимизм, это элементарная техника безопасности.