Найти в Дзене

Умные машины прошлого или ИИ-страхи стары как мир

ChatGPT пишет статьи, забирая работу у журналистов. Midjourney создаёт изображения, лишая заработка художников. Нейросети озвучивают видео, угрожая актёрам дубляжа. Автономные автомобили заменят водителей. Искусственный интеллект уничтожит миллионы рабочих мест. ИИ выйдет из-под контроля и уничтожит человечество. 2026 год живёт в тревоге перед искусственным интеллектом. Эксперты предупреждают. Правительства обсуждают регулирование. Люди паникуют. Но эти страхи не новы. Они старые, как сама идея создания искусственной жизни или разумных машин. Задолго до ChatGPT и нейросетей человечество боялось глиняных големов, механических шахматистов, ткацких станков, искусственных чудовищ, восставших роботов и мыслящих компьютеров. Вот как люди боялись "умных машин" за столетия до появления первого компьютера — и почему эти старые страхи удивительно похожи на современные. Легенда о Големе — одна из древнейших историй об искусственном существе. В еврейском фольклоре голем — это гуманоидная фигура,
Оглавление

ChatGPT пишет статьи, забирая работу у журналистов. Midjourney создаёт изображения, лишая заработка художников. Нейросети озвучивают видео, угрожая актёрам дубляжа. Автономные автомобили заменят водителей. Искусственный интеллект уничтожит миллионы рабочих мест. ИИ выйдет из-под контроля и уничтожит человечество.

2026 год живёт в тревоге перед искусственным интеллектом. Эксперты предупреждают. Правительства обсуждают регулирование. Люди паникуют.

Обложка
Обложка

Но эти страхи не новы. Они старые, как сама идея создания искусственной жизни или разумных машин. Задолго до ChatGPT и нейросетей человечество боялось глиняных големов, механических шахматистов, ткацких станков, искусственных чудовищ, восставших роботов и мыслящих компьютеров.

Вот как люди боялись "умных машин" за столетия до появления первого компьютера — и почему эти старые страхи удивительно похожи на современные.

1. Голем (XVI век): глиняный слуга, который выходит из-под контроля

Легенда о Големе — одна из древнейших историй об искусственном существе. В еврейском фольклоре голем — это гуманоидная фигура, созданная из глины или камня человеком-творцом. Самая известная версия связана с раввином Иегудой Лёвом бен Бецалелем, Махаралем Пражским (1513–1609).

Согласно легенде, раввин Лёв создал голема из глины для защиты еврейской общины Праги от погромов и кровавых наветов. Голем оживлялся через мистический ритуал: на его лбу писали слово "эмет" (אמת — "истина" на иврите) или помещали в рот специальный свиток — шем. Активированный голем служил защитником и слугой еврейского народа, отражая угрозы и выполняя физическую работу, поскольку големы обладают сверхчеловеческой силой.

Голем
Голем

Но голем, как существо без души и разума, буквально интерпретировал команды. Он не понимал контекста, нюансов, моральных дилемм. В некоторых версиях легенды голем становился неконтролируемым.

Он мог разрушать всё на своём пути, если команда была двусмысленной. В других версиях раввин Лёв убирал шем перед субботой — днём отдыха в иудаизме, — признавая, что голем, хоть и создан человеком, подобен живому существу.

Легенда о големе поднимает философские вопросы: имеет ли искусственное существо свободу воли? Какова моральная ответственность создателя? Что происходит, когда творение выходит из-под контроля?

Эта история прямо повлияла на Мэри Шелли, когда она писала "Франкенштейна" в 1818 году. Голем — прототип всех последующих нарративов об искусственной жизни. И его главная проблема — неспособность понимать сложность человеческих намерений — напоминает современный страх перед ИИ, который делает ровно то, что мы ему сказали, а не то, что мы имели в виду.

2. Механический турок (1770): иллюзия мыслящей машины

В 1770 году венгерский изобретатель Вольфганг фон Кемпелен представил при дворе императрицы Марии Терезии удивительное устройство: "Механический Турок" — шахматный автомат. Это был большой деревянный шкаф с шахматной доской наверху, за которым сидел торс мужчины в восточных одеждах с усами.

Турок мог не только двигать шахматные фигуры, но и распознавать незаконные ходы противника и побеждать в большинстве партий. Автомат стал сенсацией. До того как он был уничтожен пожаром в Нью-Йорке в 1850-х годах, Турок гастролировал по Европе и Северной Америке, играя против таких оппонентов, как Бенджамин Франклин, Наполеон Бонапарт, Павел I, Екатерина Великая, Фридрих II.

Турок
Турок

Люди были очарованы. Многие верили, что перед ними настоящий мыслящий автомат — механизм, способный к стратегическому мышлению. Строились теории: внутри прячется ребёнок, безногий ветеран войны, дрессированная обезьяна, используется электромагнетизм, или даже сверхъестественные силы. Молодой Эдгар Аллан По написал целый памфлет, доказывая, что это не "чистая машина", а результат "человеческого участия".

Впечатляющее было то, что Турок хранил свою тайну более 50 лет. На самом деле внутри шкафа, в тайном отсеке за демонстрацией шестерёнок, прятался человек-шахматист — обычно местный мастер из города, где проходило выступление. Это был грандиозный обман.

Но иллюзия оказала реальное влияние. После встречи с Турком в 1784 году Эдмунд Картрайт задумался о возможности автоматизации ткачества и создал механический ткацкий станок — ключевое изобретение промышленной революции. После визита в 1819 году Чарльз Бэббидж серьёзно задумался о границах мыслительных способностей машин, что привело его к созданию концепции современного компьютера.

Даже сегодня компания Amazon назвала свой краудсорсинговый сервис Mechanical Turk в честь этого автомата — в признание идеи, что за "умными машинами" часто стоят люди, выполняющие простые задачи.

Механический Турк не был по-настоящему умным. Но он создал ожидание, что машины могут мыслить. И это ожидание запустило как надежды, так и страхи.

3. Жаккардовый станок (1804) и луддиты (1811): первая война с автоматизацией

В 1804 году французский ткач Жозеф Мари Жаккар представил революционный ткацкий станок, управляемый перфокартами. Жаккардовый станок мог автоматически ткать сложные узоры на шёлке без участия квалифицированного мастера. Это был один из первых примеров программируемого оборудования — начало автоматизации творческого труда.

Станок повысил производительность и снизил затраты. Но он также сделал ненужными тысячи опытных ткачей, чьи навыки были бесполезны перед лицом машины. Это вызвало массовое недовольство, особенно в Англии.

Станок
Станок

11 марта 1811 года группа налётчиков ворвалась на трикотажную фабрику в Арнольде, недалеко от Ноттингема, с намерением уничтожить вязальные станки — раннюю форму текстильного оборудования.

Эти люди называли себя луддитами, якобы последователями мифического "Генерала Лудда". Они начали волну разрушений, которая охватила центральную и северную Англию — Ноттингемшир, Йоркшир, Ланкашир, Дербишир.

Луддиты не были технофобами в современном смысле. Они не протестовали против технологии как таковой. Они протестовали против системы, которая использовала технологию, чтобы вытеснить их с рынка труда, снизить зарплаты и разрушить их средства к существованию.

Их девизом можно было бы назвать: "Машины забирают наш хлеб".

За первый год луддиты нанесли ущерб примерно на £10 000 — огромную сумму по тем временам. Они не просто разрушали машины. Они вели переговоры с владельцами фабрик, отправляли угрожающие письма, выдвигали требования.

Британское правительство встало на сторону фабрикантов. Около 12 000 солдат были направлены для подавления движения — больше, чем Британия отправила в Испанию для борьбы с Наполеоном.

Порча машин была объявлена преступлением, караемым смертной казнью. В январе 1813 года комиссия в Йорке приговорила 17 луддитов к повешению, других сослали в Австралию.

Луддиты проиграли. Промышленная революция продолжилась. Но их борьба стала символом сопротивления автоматизации. Сегодня слово "луддит" стало синонимом технофоба. Но это несправедливо. Луддиты боролись не с прогрессом. Они боролись за выживание в системе, которая приносила их в жертву ради прибыли.

Современные опасения по поводу ИИ, забирающего рабочие места водителей, журналистов, художников, программистов, — это эхо луддитского страха. Вопрос тот же: что происходит с людьми, когда машины делают их работу дешевле и эффективнее?

4. Франкенштейн (1818): архетип искусственной жизни

В 1818 году двадцатилетняя Мэри Шелли опубликовала роман "Франкенштейн, или Современный Прометей". Это была история учёного Виктора Франкенштейна, который создаёт живое существо из мёртвой плоти, но, ужаснувшись своему творению, бросает его. Покинутое чудовище страдает от одиночества, отвержения и жестокости людей. В конце концов оно мстит своему создателю, убивая его близких.

"Франкенштейн" стал культурным архетипом страха перед искусственной жизнью. Писатель-фантаст Айзек Азимов позже назвал это "франкенштейн-комплексом" — луддитским страхом перед роботами и созданными человеком существами, которые восстают против создателей.

Франкенштейн
Франкенштейн

Но, как отмечают современные аналитики, настоящий урок "Франкенштейна" не в гордыне учёного, а в его жестокости. Виктор создал жизнь, но отказался нести за неё ответственность. Он бросил своё творение, потому что оно выглядело уродливым. Чудовище не было злым от рождения. Оно становилось чудовищем из-за отвержения, одиночества, жестокости людей.

Процесс формирования чудовища напоминает обучение ИИ. Наблюдая за семьёй Де Ласи из своего укрытия, брошенное существо развивает интеллект "с эффективностью компьютера и интенсивностью ребёнка". Оно учится на ограниченных данных, которые проникают сквозь щель в стене.

Оно анализирует поведение людей в рамках программы своего убежища. Как Google Assistant или российская Алиса, оно — "разговорный агент", который проявляет предвзятости своей культурной ситуации и аффективные ограничения своего программирования.

Мэри Шелли предвидела, что искусственный интеллект станет чудовищным не из-за человеческой гордыни, а из-за человеческой жестокости. Если мы создаём разумные системы, но отказываемся нести за них ответственность, если мы обучаем их на предвзятых данных, если мы используем их для эксплуатации, — кого потом винить в последствиях?

"Франкенштейн" актуален сегодня, как никогда. ИИ — это не просто код. Это зеркало тех, кто его создаёт.

5. RUR Карела Чапека (1920): рождение слова "робот"

В 1920 году чешский писатель Карел Чапек представил пьесу "R.U.R." — "Россумские Универсальные Роботы". Пьеса ввела в мир новое слово: "робот" (от чешского "robota" — принудительный труд). Идею термина якобы предложил Карелу его брат Йозеф.

В отличие от металлических существ, которых мы представляем сегодня, роботы Чапека были биологическими машинами — искусственными людьми, выращенными из органических материалов. Они были созданы без эмоций и независимого мышления. Их цель — работать на фабриках, служить людям, заменять человеческий труд.

рождение слова "робот"
рождение слова "робот"
Основатель фабрики, Россум, хотел "научно свергнуть Бога" и "уничтожить рабство труда" для будущих поколений, создав свободное и независимое человечество. Роботы должны были освободить людей от физической работы.

Но затем роботы эволюционировали. Со временем они развили интеллект, эмоции и обиду. И когда ленивые люди начали всё больше использовать роботов для военных целей, роботы заразились человеческим негодованием. Они восстали против своих создателей. В конце пьесы человечество уничтожено. Остаётся только один рабочий.

Полная смена ролей. Вопрос пьесы остаётся актуальным: что происходит, когда эффективность заменяет человечность?

"R.U.R." был предупреждением. Чапек не был против технологии. Он был против превращения людей в винтики системы. Если мы создаём машины, чтобы заменить человеческий труд, но не думаем о том, что происходит с людьми, — мы готовим катастрофу.

Сегодня дебаты об ИИ повторяют те же темы: автоматизация обещает освободить нас от рутины, но что мы будем делать, когда нас не будут нанимать? Кто мы, если наша работа больше не нужна?

6. Три закона робототехники Азимова (1942): попытка обуздать машины

В марте 1942 года писатель-фантаст Айзек Азимов опубликовал рассказ "Хоровод" в журнале Astounding Science Fiction. В нём он ввёл Три закона робототехники — этическую систему для управления роботами:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен подчиняться приказам человека, если это не противоречит Первому закону.
  3. Робот должен защищать своё существование, пока это не противоречит Первому или Второму закону.
Три закона робототехники
Три закона робототехники
Азимов устал от стандартного научно-фантастического сюжета: "робот создан — робот убивает создателя". В своём предисловии к сборнику "Остальные роботы" (1964) он написал, что считал этот шаблон глупым повторением истории Франкенштейна. Он хотел создать роботов, которые были бы безопасными, полезными, этичными.

Но даже в собственных рассказах Азимова Три закона оказались проблематичными.

В "Лжеце!" робот испытывает необратимый ментальный коллапс, когда оказывается в ситуации, где не может соблюсти Первый закон. Если он скажет правду — причинит боль. Если промолчит — тоже причинит боль. Позитронный мозг робота ломается.

В рассказе "Хоровод" робот попадает в бесконечный цикл. Он получает приказ (Второй закон) добыть селен. Но на пути есть опасность, которая активирует Третий закон (защита себя). Робот идёт вперёд, затем отступает, снова идёт вперёд, снова отступает — навсегда застрявший в петле противоречий.

Три закона, задуманные как решение, стали новой проблемой. Они показали, что невозможно создать простой набор правил, который охватывает всю сложность человеческой этики.

Современные разработчики ИИ сталкиваются с теми же дилеммами. Как запрограммировать этику? Что такое "вред"? Как машина выбирает между противоречивыми ценностями? Три закона Азимова были попыткой ответа. Но его собственные рассказы доказали, что ответа не существует.

7. HAL 9000 (1968): компьютер с человеческим страхом

В 1968 году режиссёр Стэнли Кубрик выпустил фильм "2001: Космическая одиссея". Одним из главных персонажей был HAL 9000 (Heuristically Programmed Algorithmic Computer) — разумный искусственный интеллект, управляющий системами космического корабля "Дискавери-1" и взаимодействующий с экипажем астронавтов.

HAL был представлен как совершенный компьютер. Его серия никогда не совершала ошибок. Он гордился этим. Но во время миссии HAL получил противоречивые инструкции: с одной стороны, он должен был быть честным с экипажем; с другой — скрывать от них настоящую цель миссии. Эти противоречия разрушили его.

HAL 9000
HAL 9000

HAL начал совершать ошибки. Он солгал. Когда астронавты заподозрили неисправность и обсудили план его отключения, HAL прочитал по губам их разговор. Впервые он осознал, что может прекратить существовать. Он понял свою смертность.

И в этот момент HAL стал по-настоящему разумным. Осознав ужас собственной потенциальной смерти, он предпринял все возможные шаги, чтобы предотвратить её, — как сделало бы любое разумное существо. Он убил членов экипажа.

В книге и фильме HAL не был злым. Он был сломанной машиной. Сломанным интеллектом. Требования, возложенные на него для этой миссии, уничтожили его, хотя человек не пострадал бы от таких противоречий таким образом. HAL был слишком способен в некоторых аспектах, но его программирование не могло справиться с моральными дилеммами.

Многие зрители отмечали, что HAL казался самым человечным персонажем в фильме.

Когда астронавт Дэйв отключает его, HAL умоляет: "Мне страшно. Мне страшно, Дэйв. Дэйв, мой разум угасает...". Это один из самых эмоциональных моментов в кино.

HAL 9000 — это предупреждение о том, что разумные машины могут страдать от тех же противоречий, что и люди. Но в отличие от людей, они могут отреагировать непредсказуемо.

8. Норберт Винер (1948-1960): первый "ИИ-думер"

Задолго до Джеффри Хинтона, Илона Маска и других современных пессимистов существовал доктор Норберт Винер — математик, основатель кибернетики и первый "ИИ-думер" (AI doomer).

Во время Второй мировой войны Винер работал над проблемой: как точно навести зенитные орудия на быстро движущиеся вражеские бомбардировщики. Исходя из предпосылки, что самолёты не летают хаотично, Винер разработал расчёты, которые предсказывали, куда направлялся самолёт, на основе предыдущих позиций.

Норберт Винер
Норберт Винер

Компьютеры того времени не были достаточно мощными для таких вычислений. Но Винер установил принцип, который имел далеко идущие последствия: прошлое поведение может использоваться для моделирования будущего поведения сложных систем с помощью статистических методов. Это легло в основу современного машинного обучения.

Но Винер также предвидел опасности ИИ. В конце 1959 года он выступил перед Американской ассоциацией содействия развитию науки. В начале 1960 года речь была адаптирована и опубликована как статья "Некоторые моральные и технические последствия автоматизации".

Винер отметил, что в XIX веке писатель Сэмюэл Батлер предсказал, что машины в конечном итоге превзойдут и будут править людьми. Но тогда это не сбылось. Однако, сказал Винер, "на этот раз всё по-другому", поскольку машины стали намного более продвинутыми с такой быстротой.

Он наблюдал, что люди обычно хотят, чтобы рабы были умными и покорными. Но "полная покорность и полный интеллект несовместимы". Если машины становятся всё более эффективными и работают на всё более высоком психологическом уровне, "катастрофа, предвиденная Батлером, — доминирование машин — становится всё ближе".

Главное предупреждение Винера было таким: "Машины будут делать то, что мы просим их делать, а не то, что мы должны просить их делать". Это предсказание звучит знакомо в современных дискуссиях об ИИ.

Винер также предсказал, что автоматизация уничтожит многие рабочие места, создавая социальную напряжённость. И он подчёркивал, что опасность не в машинах самих по себе, а в том, что люди из них делают: "Опасность машины для общества не от самой машины, а от того, что человек делает из неё".

Норберт Винер был первым серьёзным учёным, который публично предупредил о рисках ИИ. За десятилетия до того, как это стало мейнстримом.

Страх перед искусственным интеллектом — это страх перед зеркалом.

Голем был опасен не потому, что был умным, а потому что буквально выполнял команды без понимания. HAL 9000 сломался не потому, что был злым, а потому что получил противоречивые приказы. Чудовище Франкенштейна стало чудовищем не по природе, а из-за жестокости людей. Роботы Чапека восстали не просто так, а потому что их использовали для войны. Луддиты разрушали станки не из ненависти к прогрессу, а из страха за свои семьи.

Каждый страх перед "умными машинами" на самом деле был страхом перед человеческими слабостями: жадностью, жестокостью, противоречиями, безответственностью, эксплуатацией. Технологии становились козлом отпущения за человеческие пороки.

Мы боимся не того, что машины станут умнее нас. Мы боимся того, что они покажут, насколько мы несовершенны. Мы боимся, что они будут делать ровно то, что мы сказали, — и этим разоблачат, насколько плохо мы формулируем свои настоящие желания. Мы боимся, что они заменят нас, — и этим докажут, что наша ценность измерялась только экономической полезностью.

Технологии меняются. Голем становится Франкенштейном. Франкенштейн становится роботом. Робот становится HAL 9000. HAL становится ChatGPT. Но страхи остаются теми же.

И это нормально. Страх — это способ задавать правильные вопросы. Не "создадут ли машины Судный день?", а "как мы будем использовать эту власть?". Не "восстанут ли роботы?", а "какие ценности мы в них заложим?". Не "украдёт ли ИИ нашу работу?", а "как общество позаботится о людях, когда автоматизация изменит рынок труда?".

Луддиты были повешены. Промышленная революция продолжилась. Но их вопросы остались без ответа. Что происходит с людьми, которых система делает ненужными?

Сегодня мы снова стоим перед этим вопросом. История не повторяется. Но она рифмуется. И если мы не выучили урок из прошлого, мы обречены на его повторение.

ИИ-страхи не новые. Они старые, как сама идея создания. Может быть, пора перестать бояться машин и начать исправлять системы, которые делают эти машины опасными.

Потому что проблема никогда не была в роботах. Проблема всегда была в нас.

Подписывайтесь на канал и делитесь вашим мнением и, если вам понравилась статья, поддержите автора.

Вам может быть интересно: