Найти в Дзене
Цветущая сложность

Кибернетика в разных культурах: локализация универсального

История кибернетики — это история пересечения культурных, политических и дисциплинарных границ. Кибернетика, или наука об управлении и коммуникации у животных и машин, была сформулирована в 1948 году в одноименной книге профессором математики Массачусетского технологического института Норбертом Винером. Выставка исторических фотографий и документов Винера размещена в холле математического факультета Массачусетского технологического института, недалеко от моего офиса. Работа Винера по кибернетике опирается на его военные исследования по управлению зенитными орудиями. Он спроектировал и построил зенитный предиктор, сервомеханическое устройство с обратной связью для прогнозирования траектории вражеского самолета. Эту функцию обычно выполняли люди, указывающие на оружие, и инструкторы по стрельбе, и поэтому устройство Винера «узурпировало специфически человеческую функцию».[1] Эта работа привела Винера к далеко идущей аналогии между работой сервомеханизмов, управляющих устройств на основе
Оглавление
Группа советских кибернетиков во главе с В.М.Глушковым (сидит)
Группа советских кибернетиков во главе с В.М.Глушковым (сидит)

История кибернетики — это история пересечения культурных, политических и дисциплинарных границ. Кибернетика, или наука об управлении и коммуникации у животных и машин, была сформулирована в 1948 году в одноименной книге профессором математики Массачусетского технологического института Норбертом Винером. Выставка исторических фотографий и документов Винера размещена в холле математического факультета Массачусетского технологического института, недалеко от моего офиса.

Работа Винера по кибернетике опирается на его военные исследования по управлению зенитными орудиями. Он спроектировал и построил зенитный предиктор, сервомеханическое устройство с обратной связью для прогнозирования траектории вражеского самолета. Эту функцию обычно выполняли люди, указывающие на оружие, и инструкторы по стрельбе, и поэтому устройство Винера «узурпировало специфически человеческую функцию».[1] Эта работа привела Винера к далеко идущей аналогии между работой сервомеханизмов, управляющих устройств на основе обратной связи и целенаправленным поведением человека. В 1943 году Винер, физиолог Артур Розенблат и инженер Джулиан Бигелоу совместно опубликовали статью, в которой высказали предположение, что целеустремленное поведение человека управляется тем же механизмом обратной связи, который используется в сервомеханизмах.[2] Объединив термины из техники управления (обратная связь), психологии (цель), философии (телеология) и математики (экстраполяция), они построили классификационную схему поведения, одинаково применимую как к человеческой деятельности, так и к работе машин.

Киберязык между человеком и машиной

В своей книге «Кибернетика» Норберт Винер еще больше обобщил эти идеи и ввел новый, «универсальный» язык, который я называю киберязыком. Он связал воедино разнообразный набор человеко-машинных метафор. Охватывая различные дисциплины — вычислительную технику, теорию информации, теорию управления, нейрофизиологию и социологию — кибернетика описывала живые организмы, устройства управления и связи, а также человеческое общество в одних и тех же кибернетических терминах: информация, обратная связь и контроль.

Путешествуя через Атлантический океан в Европу, а затем в Советский Союз, кибернетика не раз меняла свое обличье: в разное время и в разных местах она появлялась как инструмент для создания сложного оружия, теоретическое обоснование свободы слова, метод создания интеллектуальных машин, модель для описания функционирования человеческого мозга, средства междисциплинарности и инструмента реформирования теоретического аппарата широкого спектра наук о жизни и социальных наук с помощью формальных моделей из математики и вычислительной техники. Временами оно было наполнено сильными идеологическими посылами, иногда представлялось как якобы политически нейтральный. Каждый раз, когда кибернетика пересекала новую культурную, политическую или дисциплинарную границу, ее коннотации ставились под сомнение, а к ним присоединялись новые.

Универсалистские устремления кибернетики и искусственного интеллекта

Одним из особенно ярких примеров универсалистских подходов кибернетиков является разработка компьютерных программ, способных выполнять некоторые когнитивные задачи человека, известных как искусственный интеллект (AI). Цель AI состоит в том, чтобы постичь универсальные принципы мышления, чтобы реализовать их в компьютере. В 1984 году Патрик Уинстон сформулировал цели исследований в области искусственного интеллекта следующим образом: «Искусственный интеллект вдохновляет людей, которые хотят раскрыть принципы, которыми должны пользоваться все интеллектуальные разработчики информации».[3] В то же время в Советском Союзе подающее надежды сообщество AI сформулировало свои собственные цели, которые звучали тоже замечательно: «Понять, как мыслит человек, каковы механизмы мышления».[4] По обе стороны железного занавеса исследования в области искусственного интеллекта понимались как поиск фундаментальных принципов человеческого мышления.

И американские, и советские ученые считали, что существует общий, универсальный, внеисторический механизм человеческого мышления. Тем не менее, поскольку сами эти ученые принадлежали к разным культурам, у них были различные, специфичные для культуры интуиции о человеческом мышлении. «Люди», которых они считали универсальными категориями, на самом деле были людьми, принадлежащими к определенным культурам. Таким образом, их модели искусственного интеллекта отражали специфику их культур.

Повседневная практика в США и СССР

Повседневная практика в любом обществе базируется на общепринятых моделях поведения — действиях, воспринимаемых как типичные и нормальные, — а также на различных стратегиях разрешения повседневных ситуаций, известных как здравый смысл. Джон Маккарти назвал системы искусственного интеллекта «программами со здравым смыслом», подразумевая, что в основе человеческого мышления лежит фундаментально универсальное знание здравого смысла.[5] Однако, как предположил антрополог Клиффорд Гирц, здравый смысл «исторически сконструирован и... подчиняются исторически определенным стандартам суждения. Он может... сильно различаются от одного народа к другому. Короче говоря, это культурная система» [6]. Гирц предостерегал от «набросков некоторой логической структуры, [которую здравый смысл] всегда принимает, поскольку ее нет», тем самым, к сожалению, подрывая основную предпосылку Маккарти.[7]

Повседневная практика служит посредником для постоянного обмена культурными символами и формирует культурный словарь для любой конкретной группы. Для американцев в этот период повседневный опыт варьировался от чтения «Нью-Йорк Таймс» до просмотра политических дебатов по телевизору и покупок в супермаркетах, где было представлено большое разнообразие товаров. Повседневный опыт советских людей выглядел совсем иначе.

Они никогда не читали «Нью-Йорк Таймс», не смотрели политические дебаты и никогда не испытывали проблем с выбором, какой бренд купить. Они читали «Правду» и подпольную литературу, сидели на партийных собраниях, стояли в очередях в продовольственных магазинах. То, что казалось им типичным и нормальным, американцам выглядело своеобразно и экзотично, и наоборот. Тем не менее, даже если здравый смысл не универсален, модели ИИ действительно говорят нам кое-что — если не об основах человеческого мышления в целом, то, возможно, о специфических культурных конструкциях обыденного знания.

Культурное влияние проявляется не только в типичных моделях поведения и стратегиях повседневной жизни, но и в языке, в метафорах, по которым мы живем и думаем, в том числе и в размышлении о самом мышлении.[8] В этом эссе я обсуждаю различные культурные представления о мышлении, распространенные среди американских и советских интеллектуалов, и исследую их связь с конкретными системами искусственного интеллекта. Я утверждаю, что глубокие культурные факторы лежат в основе существенных различий в подходах к искусственному интеллекту, разработанных американскими и советскими учеными. В поисках общих принципов мышления и поведения специалисты по искусственному интеллекту фактически реализовали в своих моделях собственные культурные стереотипы.

Различные культурные метафоры свободы: выбор vs творчество

Если рассматривать такую повседневную ситуацию, как шопинг, то главная проблема для американского покупателя заключается в том, как сделать правильный (можно сказать, «здоровый») выбор среди привлекательного разнообразия продуктов и товаров. Умение сделать правильный выбор также является очень важной частью академической подготовки в Соединенных Штатах. Студенты колледжей выбирают большинство своих курсов из большого разнообразия предлагаемых курсов; обычные тесты с несколькими вариантами ответов требуют выбора одного правильного ответа из нескольких вариантов. В избирательных бюллетенях указано несколько кандидатов на каждую должность.

Напротив, большинство повседневных ситуаций в Советском Союзе не оставляли гражданину никакого выбора. Учебные программы высших учебных заведений предписывали фиксированную, заранее определенную последовательность курсов для каждой специальности. Единственный выбор, который был у студентов, заключался в выборе предпочитаемого вида спорта. Тесты с множественным выбором были редкими. Вместо этого от ученика требовалось описать все промежуточные шаги, и если алгоритм был неэффективным (или просто отличался от описанного в учебнике), оценка снижалась, даже если ответ был правильным. Избирательные бюллетени всегда включали только одного кандидата, чтобы упростить политический выбор. И, наконец, советский способ совершения покупок представлял для покупателя проблему иного рода. Проблема была не в том, что выбрать, а в том, как вообще что-то найти. В условиях дефицита многих продуктов питания и предметов быта востребованные продукты можно было получить только по неофициальным каналам. Рядовой советский гражданин должен был создать уникальную, длинную цепочку неформальных социальных взаимодействий через сеть друзей, родственников, друзей родственников и родственников друзей, чтобы на другом конце можно было найти желанную стиральную машину или телевизор.[9]

Когнитивные психологические теории, разработанные американскими и советскими учеными, отражали различные культурные ценности выбора и творчества. Американский когнитивный психолог Джером Брунер, например, описывал обретение понятия как процесс, каждый шаг которого «обычно можно рассматривать как выбор или выбор между альтернативными шагами».[10] Работа Брунера продемонстрировала «когнитивную революцию» в психологии, тесно связанную с работами американских пионеров искусственного интеллекта Герберта Саймона и Аллена Ньюэлла, которые поставили выбор в центр своей модели «эвристического поиска» интеллектуальной деятельности.

Советский психолог Андрей Брушлинский, напротив, отвергал идею о том, что мышление включает в себя выбор среди ранее существовавших альтернатив. Он утверждал, что истинное мышление должно породить новую альтернативу: «Актуальное живое мышление, например решение задачи или проблемы, всегда принимает форму предсказания изначально неизвестного, будущего решения. Этот прогноз... делает акт выбора между альтернативными решениями ненужным».[11]

Специалисты по искусственному интеллекту в Советском Союзе и в Соединенных Штатах иногда опирались на психологические теории, а иногда психологи опирались на модели искусственного интеллекта. Однако чаще специалисты по искусственному интеллекту игнорировали выводы психологов, считая, что знания должны исходить от наук об искусственном интеллекте к психологии, а не наоборот [12]. Когда AI и психология соглашались, это часто происходило потому, что они оба опирались на одни и те же культурные стереотипы.

Чиновничий человек: стремление к контролю над социальной средой

Один из пионеров американского искусственного интеллекта Герберт Саймон прямо ссылался на повседневный опыт, утверждая, что в центре интеллектуальной деятельности находится акт выбора:

Никто из нас не является полностью невиновным в том, что он знаком с основными характеристиками человеческого выбора или с общими особенностями окружающей среды, в которой этот выбор происходит. Я буду смело ссылаться на этот общий опыт как на источник гипотез, необходимых для теории о природе человека и окружающем его мире. [13]

Саймон опирался на широкий спектр математических теорий, которые предлагали различные формализации выбора в хорошо структурированных средах — эконометрику, теорию игр, исследование операций, теорию полезности и статистическую теорию принятия решений, — которые его биограф Хантер Кроутер-Хейк назвал «науками выбора».[14] Все эти теории предполагали, что акт выбора является свободным и рациональным: индивид воздействует на окружающую среду, но окружающая среда не влияет на цели или предпочтения индивида.

Саймон также заимствовал знания из других дисциплин: социологии, социальной психологии, антропологии и политологии. Эти «науки об управлении», напротив, подчеркивали податливость и покорность индивида, подверженного групповому и общественному давлению и сформировавшему его социальному окружению. «Административный человек» в науках об управлении казался совершенно несовместимым с «экономическим человеком» в науках о выборе.

Опираясь как на науку о выборе, так и на науку об управлении, Саймон разработал теорию «ограниченной рациональности». Сложные проблемы можно было бы решить, сведя их к ограниченному набору альтернатив и рационально выбирая из них. Принадлежность к организации ограничивала выбор индивида и, таким образом, делала возможным принятие рациональных решений.

В своей статье 1956 года «Рациональный выбор и структура окружающей среды» Саймон использовал метафору лабиринта, чтобы представить математическую модель, описывающую, как организм может удовлетворять множество потребностей, делая последовательность рациональных выборов в точках ветвления на основе неполной информации.[15] Это было не просто удобное описание. Экстраполируя свой личный опыт на всю человечность, Саймон рассматривал последовательность рациональных выборов как «универсальную» модель, философию жизни:

Жизненная философия, несомненно, включает в себя набор принципов. … Принципы могут стать эвристическим руководством к действию на жизненных поворотах, нитью, которая поможет человеку найти правильный путь в лабиринте. ...В этой главе я описываю свою жизнь, а также свою личную жизненную философию, но я также описываю жизнь каждого человека.[16]

В 1950-х и 1960-х годах Саймон и Аллен Ньюэлл разработали подход к эвристическому поиску, который быстро стал доминирующей парадигмой для американских исследований AI. Согласно их модели, деятельность по решению проблемы заключалась в нахождении пути от начального к целевому состоянию в проблемном пространстве. Это пространство было похоже на ветвистое дерево или лабиринт; на каждом этапе процесса специалист по решению проблем должен был выбрать одну из альтернатив — одну из ветвей, которые расходятся в точке выбора. В отсутствие полной информации о лабиринте или в случае, если лабиринт был слишком велик для того, чтобы сделать возможный расчет, Ньюэлл и Саймон предложили использовать эвристику — эмпирические правила — чтобы помочь сделать правильный выбор. Они считали, что поиск в лабиринте является универсальной моделью интеллекта, и считали свою компьютерную программу «Решение общих проблем» общей «теорией решения человеческих проблем».[17]

По мере того, как концептуализация человеческого поведения Саймоном и Ньюэллом становилась все более формальной, модельные ситуации, на которые они опирались, становились все более ограниченными и регулируемыми: от полунезависимых решений работников крупных организаций до полуавтоматических действий операторов, подключенных к машинам в центрах управления ПВО, до ограниченного множества допустимых ходов шахматистов. В различных компьютерных реализациях модели эвристического поиска — "Логик-теоретик, доказывающий теоремы", "программа для игры в шахматы" и "универсальный" инструмент для решения общих задач - Ньюэлл и Саймон, как правило, сосредотачивались на ситуациях с полными, недвусмысленными, понятными компьютеру описаниями.

Ньюэлл и Саймон переосмыслили проблему выбора: они больше не говорили о «принятии решений», а скорее о «решении проблем». Если лицо, принимающее решение, могло рассматривать разные цели, то лицо, принимающее решение, должно было сосредоточиться на поставленной проблеме. Решения превратились в «менее конфронтационный, менее политизированный процесс распределения «процессорного времени» для выполнения различных задач. Выбор теперь сводился не столько к решениям о том, какой набор ценностей принять, сколько к решениям о том, какой набор данных обрабатывать».[18] Политика была сведена к технологии: либеральное стремление контролировать и целенаправленно преобразовывать окружающую среду превратилось в чисто техническую задачу упрощения поиска в лабиринте.

Разрабатывая свою культурную «грамматику» американского повествования, антрополог Ливия Поланьи подчеркивала, что «контроль» является одной из самых важных категорий американской жизни. «Правильные люди», как их изображают в повседневных разговорах, — это те, кто «может контролировать мир в достаточной степени, чтобы быть счастливыми и иметь власть».[19] В случае с Советским Союзом, в противоположность этому, ваше социальное окружение было чем-то, что могло потенциально контролировать вас, а не то, что вы могли контролировать. Если бы кто-то построил советскую культурную грамматику, то это описание, вероятно, можно было бы перефразировать так: «Настоящие люди — это те, кто может в достаточной степени избежать контроля со стороны мира, чтобы быть счастливыми». Повседневная борьба независимо мыслящей интеллигенции за интеллектуальную автономию была переведена в формализованной и абстрактной форме в советские модели искусственного интеллекта.

Спор в Советском Союзе о «мыслящих машинах»

Идея о том, что компьютеры могут выполнять интеллектуальные задачи, вызвала серьезные споры в Советском Союзе в начале 1950-х годов. В параноидальном контексте холодной войны к научным и технологическим инновациям, пришедшим с Запада, часто относились с большим подозрением. В ответ на популярные на Западе дискуссии о «мыслящих машинах» советская пресса осудила эту идею как потенциальную технологическую угрозу и идеологическую подрывную деятельность. Советские журналисты ругали капиталистов за их скрытые планы заменить бастующего рабочего роботом и заменить пилота-человека, отказавшегося бомбить мирных жителей, «равнодушным металлическим монстром». Советские философы, со своей стороны, критиковали идею «мыслящих машин» как «идеалистическую» (отделяющую мышление от его материальной основы в мозге) и «механистическую» (сводящую мышление к компьютерным операциям). Советские критики свалили все спорные способы использования компьютеров под рубрику «кибернетика» и заклеймили эту область как «реакционную, идеалистическую псевдонауку». Несмотря на вопиющие логические противоречия (кибернетика изображалась одновременно идеалистической и механистической, утопической и антиутопической, технократической и пессимистической, лженаукой и опасным оружием военной агрессии), кампания оказала серьезное влияние на советские исследования. В результате ажиотажа в средствах массовой информации работа над «мыслящими машинами» стала идеологически нецелесообразной, а ранние советские компьютерные приложения были ограничены научными расчетами.[20]

Советская кибернетика: движение за реформы

Антикибернетическая кампания не ослабила интереса советских ученых к компьютерным системам, способным выполнять интеллектуальные задачи. Все первые в Советском Союзе крупные электронные цифровые вычислительные машины были установлены в оборонных научно-исследовательских институтах, которые были относительно защищены от идеологического давления, а также предоставляли своим сотрудникам доступ к новейшим западным публикациям. Первые советские чемпионы в области кибернетики и искусственного интеллекта в основном были выходцами из этих учреждений. Математик Алексей Ляпунов возглавлял отдел компьютерного программирования в Отделении прикладной математики Математического института Академии наук СССР в Москве. Это подразделение (с 1966 года — Институт прикладной математики) выполняло расчеты по советским программам ядерного оружия и ракетостроения. Эти расчеты были перепроверены по результатам, полученным в Вычислительном центре No1 Министерства обороны, где специалист по вычислительной технике Анатолий Китов руководил исследованиями и разработками. В 1955 году, воспользовавшись потеплением политического климата после смерти Сталина, Китов и Ляпунов объединились с ведущим математиком программы ядерного оружия Сергеем Соболевым и опубликовали статью в журнале «Проблемы философии», в которой они публично отвергли идеологические обвинения в адрес кибернетики и фактически узаконили исследования в этой области.

По мере того как кибернетическое движение набирало силу, оно объединило под своей эгидой всевозможные математические модели и компьютерные приложения в «кибернетической биологии», «кибернетической физиологии», «кибернетической лингвистике», «кибернетической экономике» и многих других областях. В 1960 году Норберт Винер принял участие в конференции в Москве и сразу же стал звездой. Партийные лидеры заинтересовались вычислительной техникой и теми перспективами, которые она открывала для социалистической экономики.

Маятник отношения советской общественности к «мыслительным машинам» качнулся в другую сторону.[21] Советская пресса стала превозносить интеллектуальные способности компьютера, изображая его как всемогущий волшебный инструмент для решения любой проблемы. Статьи под названием «Мыслительные машины» и «На грани научной фантастики» росли как грибы на страницах газет и популярных журналов. Журналисты быстро отвергли предыдущую идеологическую критику, заявив, что она применима только к капиталистическому обществу:

Если в капиталистическом мире внедрение "думающих" машин означает рост безработицы, эксплуатации работников и страха перед будущим, то в социалистическом обществе, освобождая людей от тяжелой, неинтересной работы, машины давали бы возможность сосредоточиться на чем-то возвышенном и радостном - на мышлении, творении и, в частности, создании новых "думающих’ машин.[22]

В новой Программе КПСС 1961 года провозглашалось, что «кибернетика, электронно-вычислительные машины и системы управления будут широко применяться в производственных процессах в промышленности, строительстве и на транспорте, в научных исследованиях, планировании, проектировании, бухгалтерском учете, статистике и управлении».[23] Советские СМИ стали называть компьютеры «машинами коммунизма».[24]

Несмотря на шумиху в средствах массовой информации, советское правительство не проявило особого интереса к поддержке исследований в области искусственного интеллекта. Лидеры кибернетического движения дистанцировались от устремлений в области искусственного интеллекта, пытаясь создать образ компьютера как эффективного инструмента, а не автономного агента. Председатель Совета по кибернетике Академии наук СССР, инженер, адмирал Аксель Берг публично заявил, что электронные вычислительные машины «будут все больше помогать человеку, но никогда не заменят его и не будут думать».[25] Компьютерное время оставалось в дефиците, и руководители не одобряли попытки программистов отвлечь ценные вычислительные ресурсы на исследование проблем, которые вызывали их собственный интеллектуальный интерес.

Шаткое положение советского AI отразилось на языке. Фраза «мыслящая машина» всегда бралась в кавычки, чтобы подчеркнуть ее метафорическое значение. Сам термин «искусственный интеллект» оставался спорным, и исследователи его избегали. Они предпочитали более нейтрально звучащую лексику, такую как «кибернетическая психология», «изучение информационных процессов» или «эвристическое программирование».[26]

Свобода выбора

В 1964 году, когда математик Дмитрий Поспелов и психолог Вениамин Пушкин собрали специалистов по вычислительной технике и психологов, интересующихся искусственным интеллектом, на очередной коллоквиум в Московском энергетическом институте, они назвали свою область «психоника». Психоническая группа напрямую бросила вызов модели мышления Саймона-Ньюэлла и выдвинула альтернативный подход.

Термин «психоника» образовался по аналогии с бионикой. В то время как специалисты в области бионики надеялись имитировать «проектирование» живых организмов в инженерных системах, Поспелов и Пушкин стремились использовать психологические знания для создания интеллектуальных компьютеров. Пушкин провел ряд исследований по отслеживанию движений глаз шахматистов и пришел к выводу, что каждый игрок строит свою мысленную модель позиции на доске, а не ищет решение в заранее заданном проблемном пространстве. Он утверждал, что проблемное пространство человека изначально не структурировано как дерево, и что процесс поиска решения включает в себя создание нового проблемного пространства, а не «обрезку бесполезных ветвей», как в модели лабиринта Ньюэлла-Саймона.[27]

Советские специалисты по искусственному интеллекту недолюбливали модель лабиринта не за ее неэффективность, а за ее отход от их культурных ожиданий. Даже не зная концептуальных истоков «Решателя общих проблем», они связывали его с «бюрократическим аппаратом» поиска лабиринтов. В то время как некоторые следовали логике Ньюэлла и Саймона и утверждали, что «человек мыслит путем исчерпывающего поиска», многие другие предлагали альтернативные модели, например мышление как цепочку ассоциаций.[28]

Пушкин и Поспелов концептуализировали мышление не как поиск, а как размышление о проблеме. Они утверждали, что описания текущей ситуации и цели часто формулируются в разных терминах. В случае шахмат, например, начальная позиция описывается в терминах расположения конкретных фигур на доске, в то время как состояние цели — мат — требует более высокоуровневого описания, включающего невозможность передвинуть прошедшего короля. Человек-шахматист должен уметь переключаться между низкоуровневыми и высокоуровневыми описаниями, то есть строить и манипулировать различными посредническими моделями ситуации. Пушкин и Поспелов утверждали, что моделирование ситуации, а не поиск в лабиринте, является основной интеллектуальной процедурой: «Среди всех существующих слов и понятий, используемых для описания продуктивного мышления, наиболее адекватным, наиболее подходящим является русское слово соображение (рефлексия/воображение). … Решение отражает ситуацию, основываясь на образах или моделях ее элементов».[29]

Для Поспелова и Пушкина творчество человека проявляется в отказе от старого лабиринта, переосмыслении проблемы и конструировании нового проблемного пространства. Например, нельзя построить четыре равносторонних треугольника из шести совпадений, если искать решение на плоскости. Построение нового лабиринта решений — в трехмерном пространстве — дало бы ответ.[30]

В то время как Ньюэлл и Саймон начали с готовой структуры проблемы, Пушкин и Поспелов предположили, что структурирование проблемы является важным интеллектуальным шагом в поиске решения. Построение адекватной модели ситуации было важнее мощных поисковых алгоритмов. Пушкин и Поспелов предложили семантический язык для формального описания ситуации на различных уровнях обобщения и разработали систему построения реляционных моделей ситуаций. Поспелов и его команда реализовали этот подход в компьютерных системах управления погрузочными работами в морском порту и другими промышленными операциями, сочетающими в себе технологический и человеческий компоненты.[31]

Критика теории лабиринта Поспеловым и Пушкиным перекликалась с советским культурным восприятием выбора как ограничения творчества. Интеллектуалам Восточного блока жестко структурированный лабиринт выбора, предлагаемый правительством, казался чрезмерно ограничивающим. Некоторые решили эмигрировать. Некоторые, такие как Поспелов и Пушкин, решили показать ограничения поведения, обусловленного выбором, и создать новые проблемные пространства.

Интеллектуал в условиях репрессивного режима: стремление к автономии

Советская интеллигенция разработала изощренные стратегии жизни под наблюдением. Недавние исследования советской интеллигенции подрывают стереотипы времен холодной войны о советском ученом как о слепо поддерживающем или пассивно сопротивляющемся политике правительства.[32] Более типичной фигурой был бы физик, работающий над ядерным оружием днем, а ночью читающий подпольную литературу.[33] Заинтересованное в результатах, правительство предоставило ученым некоторую интеллектуальную свободу, если она была ограничена предметом их исследования. Историк Дэвид Холлоуэй называл ядерные оружейные лаборатории «островками интеллектуальной автономии».[34] Один физик-теоретик позже вспоминал:

Физики составляли привилегированную касту, аристократию. Контроль над нашей свободой был меньше, чем у любого другого члена советского гражданского общества. Единственными законами, которыми мы чувствовали себя ограниченными, были законы, относящиеся к научной работе. Условно говоря, мы были свободными людьми.[35]

Математики и специалисты по вычислительной технике, работающие над оборонными проектами, пользовались таким же привилегированным статусом. Будучи жрецами в храме всемогущей богини, Вычислительной Машины, они создавали свои собственные владения интеллектуальной автономии в комнатах с климат-контролем и ограниченным доступом, в которых размещались гигантские компьютеры первого поколения. Математики Израиль Гельфанд и Михаил Цетлин из Института прикладной математики, ориентированного на оборонные исследования, использовали свою долю интеллектуальной свободы для изучения центральной нервной системы.

В 1958 году Гельфанд и Цетлин организовали неформальный регулярный семинар по математическим моделям в физиологии. Нейрофизиологи традиционно предполагали, что различные узлы центральной нервной системы координируют свою деятельность через сложную систему взаимосвязей. Это предположение, однако, сбивало с толку математиков: в большой системе число связей росло бы так быстро, что любая математическая модель стала бы слишком сложной. Цетлин и Гельфанд, напротив, предложили модель, в которой каждый узел рассматривает активность всех остальных узлов как изменения в окружающей среде. Они показали, что отдельные узлы не должны взаимодействовать напрямую, а могут просто наблюдать за изменениями в окружающей среде и следовать простому адаптивному алгоритму, сводя к минимуму свое взаимодействие с окружающей средой. Это приводило к целенаправленному поведению системы в целом, если одной из целей было определено как минимизация взаимодействия системы с окружающей средой. В этой модели целенаправленное поведение всей системы не требовало большой сложности от ее подсистем. Все отдельные части действовали очень просто: они старались избегать взаимодействия, а не выстраивать сложные координационные сети. Гельфанд и Цетлин называли этот адаптивный механизм «принципом наименьшего взаимодействия»:

В каждый момент времени подсистема решает свою "особую", "персональную" проблему, а именно сводит к минимуму свое взаимодействие со средой; следовательно, сложность подсистемы не зависит от сложности всей системы в целом. ...наши математические модели позволяют нам (в определенной степени) представить взаимодействие нервных центров без учета сложной системы связей и координации их деятельности.[37]

Своеобразное определение целенаправленного поведения как минимизации взаимодействия системы с окружающей средой явно перекликалось со стремлением советской интеллигенции сохранить максимальную интеллектуальную автономию. Цетлин утверждал, что его модель нервной системы имеет преимущество в том, что она не индивидуализирована: нет необходимости указывать каждому узлу системы, что он должен делать; система использовала свою свободу маневра для самоорганизации в самых общих условиях. На лекции в Физиологическом обществе в феврале 1965 года Цетлин недвусмысленно поднял вопрос о сравнении свободного и принудительного труда, чтобы подчеркнуть преимущества самоорганизации:

Труд заключенных обходится дороже, чем у свободных людей, хотя первых гораздо хуже кормят и одевают, а работают они ничуть не меньше. Дело не только в том, что эффективность работы заключенных ниже, но и в том, что заключенного должен кормить, одевать и присматривать за ним кто-то другой. Со свободным человеком дело обстоит иначе: ...моему руководителю... не нужно думать, когда менять мне обувь или белье или что делать с моими детьми.[38]

Биофизик из Массачусетского технологического института Мюррей Иден однажды заметил: «Интересно, является ли отражением культурных или социальных различий то, что Цетлин выбрал для изучения феномен сотрудничества при выборе «целесообразного» поведения, в то время как американская теория игр фокусируется на конкуренции между игроками». Модель Цетлина, строго говоря, не была математическим воплощением социалистических идеалов. Это отражало своеобразное положение интеллигенции в советской системе, в которой «кооперативное явление» возникало из попыток индивидуумов уйти из-под контроля окружающей среды (государства) или других индивидов («народных патрулей»). Тем не менее, предположение Идена о социальных и культурных корнях различных подходов к теории игр заслуживает более подробного изучения.

Индивидуалистические игры капитализма

В 1926 году американский математик венгерского происхождения Джон фон Нейман разработал аксиоматическую формализацию игр с нулевой суммой для двух человек с конечным числом «стратегий» (полных планов игры). В его основе лежала западная концепция социального взаимодействия как противостояния между эгоистичными, рационально рассчитывающими, но осторожными оппонентами.

Фон Нейман доказал теорему о минимаксе, утверждая существование оптимальной «смешанной» или рандомизированной стратегии для каждого игрока, которая минимизировала бы максимальный проигрыш и гарантировала, что каждый из них выиграет «ценность игры». Он полагал, что минимаксная стратегия отражает некий фундаментальный аспект человеческой рациональности: «Любые события — с учетом внешних условий и участников ситуации (при условии, что последние действуют по своей собственной воле) — могут рассматриваться как стратегическая игра, если посмотреть на эффект, который она оказывает на участников».[40]

Биограф фон Неймана Стив Хеймс проследил формализм фон Неймана до его восприятия мира как наполненного безжалостными конкурентами, которые рассматривали всех остальных игроков как хитрых врагов:

Его темперамент был обусловлен суровыми политическими реалиями его венгерского опыта. Рекомендуемый стиль "ведения экономической игры", акцент на осторожности, на расчете ожидаемых последствий, весь этот утилитарный акцент точно отражает характерные идеалы среднего класса в капиталистических обществах.[41]

В 1944 году фон Нейман и его коллега, американский экономист австрийского происхождения Оскар Моргенштерн, расширили первоначальную концептуальную основу теории игр для рассмотрения экономических проблем в своей книге «Теория игр и экономического поведения». Они открыто бросили вызов детерминистскому процессу принятия решений, закрепленному в неоклассической экономике, и представили "решение" экономической игры как вероятностный "стабильный набор" возможных распределений выигрыша между игроками. Как утверждал историк Филип Мировски, они рассматривали смешанные стратегии как "отражение стохастической природы самого мышления" и эффективно превратили минимаксную стратегию в "само воплощение абстрактной рациональности".[42] Мировски далее предположил, что фон Нейман и Моргенштерн пришли к убеждению, что теория игр может «симулировать поведение любого противника и, следовательно, служить общей теорией рациональности», и что в их работах «теория игр и искусственный интеллект имеют тенденцию сливаться воедино».[43]

Среди индетерминизма, воспетого фон Нейманом и Моргенштерном, одна вещь оставалась неизменной на протяжении всего процесса: правила игры. Установление правил игры не только позволило получить убедительные формальные результаты в теории игр. Это также послужило якорем для понятия рациональности: мир был слишком сложен для детерминистического анализа, но он все еще следовал правилам, поэтому стохастически подготовленный ум все еще мог рассчитать оптимальный набор стратегий.

Американские военные аналитики утверждали, что «значение теории игр как инструмента принятия решений заключается в том, что она исключает возможность догадываться о намерениях оппонента». В то время как догадки казались американским аналитикам противоположностью рациональному решению проблем, они часто были единственным вариантом, доступным для разумного человека, принимающего решения в Советском Союзе.

Коллективные игры социализма

Ученые, изучавшие советскую науку в позднесталинский и хрущевский периоды, отмечали ритуальные модели поведения в научном сообществе. Независимо от того, участвовали ли ученые в публичных дискуссиях о философском и идеологическом значении своей дисциплины или пытались стать на сторону модного интеллектуального течения, им приходилось играть в игру в соответствии с негласными правилами публичного поведения советского ученого.[45] Ритуальная критика идеологических врагов, искусная манипуляция подходящими цитатами из Маркса или Ленина, а также изобретательный перевод научной терминологии на идеологически насыщенный язык были одними из непременных стратегий советской науки. Исход дебатов об обоснованности научных теорий часто зависел от способности участников дискуссии играть в игру.

Игра осложнялась неопределенностью в отношении вознаграждений и наказаний за конкретные стратегии. Частые сдвиги в сторону сталинистских идеологических кампаний часто приводили к тому, что медлительные мыслители цеплялись за старые, устаревшие лозунги и делали их уязвимыми для нападок. Те ученые, которые не могли правильно расшифровать «сигналы» свыше, часто недоумевали относительно правил и направления последней кампании.

Фундаментальная неопределенность советских социальных игр нашла отражение в теории коллективных игр-автоматов Михаила Цетлина. Автомат — это математическая модель конечного автомата, который изменяет свое состояние в соответствии с его диаграммой перехода и текущим входом. Цетлин интерпретировал автомат как агента, действующего в среде, которая случайным образом наказывает или вознаграждает определенное поведение. В отличие от классических игр типа фон Неймана, Цетлин изучал игры, в которых автоматы сталкивались с миром, наполненным неопределенностью. Он писал:

Следует отметить, что автоматные игры рассматриваются здесь с точки зрения, отличной от принятой в теории игр. Действительно, в теории игр обычно предполагается, что игра определяется системой функций выплат, заранее известных игрокам. … Нам показалось интересным рассмотреть игры, в которые играют конечные автоматы, не имеющие априорной информации об игре и вынужденные формировать свои стратегии для каждого успешного повтора в ходе самой игры.[46]

В партиях Цетлина «игроки практически не имеют информации об игре. Они не знают о количестве других вовлеченных игроков, о ситуации в каждый конкретный момент и даже о том, в какой игре они на самом деле играют». Цетлин неформально сравнивал свою модель агента, действующего в среде с неизвестными и меняющимися правилами, с «маленьким животным в большом мире». Его друг, кибернетический нейрофизиолог Николас Бернштейн, использовал аналогичную метафору для описания фундаментальных неопределенностей интеллектуальной деятельности: «Используя метафору, мы могли бы сказать, что организм постоянно играет в игру со своим окружением, в игре, в которой правила не определены, а ходы, запланированные противником, неизвестны».[49]

Цетлин обнаружил, что в изменяющейся среде, в которой вероятности штрафов и поощрений меняются с течением времени, наиболее успешными были автоматы, которые не имели слишком большого количества состояний. Другими словами, если правила игры постоянно менялись, то для автомата не было хорошей идеей помнить слишком много из своей собственной истории. Чем динамичнее была среда, тем меньше была оптимальная глубина «памяти» автомата.

В своем исследовании коллективных "распределительных игр" Цетлин представил тонко завуалированный комментарий к экономическим стратегиям индивидов при социализме. Сначала он рассматривал игру, в которой группа автоматов соревновалась за ресурсы (награды или выплаты), выбирая различные стратегии. Он разработал автоматы, которые совершенно не осознавали относительных преимуществ различных стратегий, но даже могли выбрать оптимальную стратегию, реагируя на вознаграждения из окружающей среды. Тем не менее, Цетлин показал, что их средний выигрыш можно увеличить, если автоматы будут играть в версию социализма с точки зрения теории игр; игра с «общим фондом», в которой все прибыли и убытки отдельных автоматов суммировались, а затем делились между ними поровну. Недостатком было то, что общий фонд маскировал связь между индивидуальным вкладом и вознаграждением и, таким образом, предъявлял более высокие требования к объему памяти отдельных автоматов. Он пришел к выводу, что можно «пожинать плоды процедуры общего фонда, начиная с определенного уровня сложности» автоматной памяти: «Если емкость памяти ниже этого порога, введение общего фонда снижает средний доход».[50]

В неформальных дискуссиях Цетлин издевательски переводил это правило на клишированный язык советского идеологического дискурса как «негативное следствие выравнивания [заработной платы] и неадекватного сознания [рабочих]».[51] Действительно, советская пресса часто возлагала вину за низкое качество потребительских товаров на «низкий уровень сознательности» рабочих. Советская пропаганда постоянно призывала рабочих повышать свою сознательность и усерднее работать на общий фонд. Цетлин обеспечил математическую формализацию этой идеологической догмы, рассчитав точный объем памяти («уровень сознания»), необходимый для поиска оптимальной стратегии в игре с общим фондом.

Коллеги Цетлина превратили его результат в основополагающий принцип человеческого мышления и поведения. Виктор Варшавский и Дмитрий Поспелов интерпретировали объем памяти как общую меру интеллектуальных способностей.[52] Они соотносили «интеллектуальный уровень» человека со способностью находить оптимальную стратегию в игре, в которой выигрыши и потери не были напрямую связаны с непосредственными действиями, а производились на более высоком уровне организации. Они пришли к выводу, что «капитализм более выгоден, когда система управления проста, а социализм более выгоден, когда система управления сложна».[53] Труды советских специалистов по искусственному интеллекту парадоксальным образом сочетали в себе тонко завуалированную критику социалистического перераспределения и своеобразное определение интеллекта как способности находить оптимальную стратегию жизни при социализме.

Идея игры с неизвестными или меняющимися правилами была очень знакома либеральной интеллигенции. Они играли в кошки-мышки с советским правительством, постоянно бросая вызов размытым границам допустимого дискурса. В то время как советские законы якобы провозглашали многие демократические свободы, на самом деле практика заключалась в подавлении любого значительного инакомыслия, помещая его под расплывчатую рубрику «антисоветская деятельность». Участие в открытом политическом протесте означало бы нарушение наиболее целесообразной стратегии поведения при социализме: свести к минимуму свое взаимодействие с политической средой. Вступление в прямую конфронтацию с властями было вопиющим нарушением «принципа наименьшего взаимодействия».[54]

Две центральные метафоры AI: крысы против бабочек

Две метафоры отражают принципиальные различия в культурных стереотипах мышления и поведения, отраженных в системах искусственного интеллекта, внедренных в Советском Союзе и Соединенных Штатах. Жизнь как лабиринт — лабиринт, в котором мы должны найти правильный путь, — стала центральной метафорой для американского AI. Метафора лабиринта вызвала в памяти бихевиористскую модель экспериментов Б. Ф. Скиннера на крысах, бегающих по Т-образным лабиринтам, и популярный в американской культуре образ «крысиных бегов». В 1950 году Клод Шеннон сконструировал механическую мышь, которая перемещалась по лабиринту в поисках металлического «сыра». Исследование административного поведения Герберта Саймона, в свою очередь, рассматривало крыс, бегающих по лабиринтам, в качестве хрестоматийного случая: «Упрощенная модель принятия решений человеком обеспечивается поведением белой крысы, когда она сталкивается в психологической лаборатории с лабиринтом, один из путей которого ведет к пище». Саймон настаивал на том, что ограниченные знания и интеллектуальные способности крысы лучше отражают ограничения человеческой рациональности, чем предположение о божественной всезнающей и совершенной рациональности: "Нам нужен менее богоподобный и более крысоподобный человек, делающий выбор".[56]

Для советских специалистов по искусственному интеллекту центральной метафорой принятия решений был не поиск в неподвижном лабиринте, а полет бабочки, прокладывающей траекторию своего полета через случайные потоки воздуха. Виктор Варшавский и Дмитрий Поспелов описали систему, которая имитировала поведение мотылька, на которого охотится летучая мышь. Когда летучая мышь оказалась слишком близко и мотылек не может улететь, он начинала метаться в хаотичном полете:

Хаотичный полет представляет собой серию пассивных падений со сложенными крыльями, резких поворотов, петель и пикировок. Другими словами, мотылек следует по траектории, из-за которой летучей мыши сложнее предсказать его местоположение в любой момент времени. Следует отметить, что в ходе экспериментов стратегия хаотического бегства спасала мотыльку жизнь в 70 процентах случаев.[57]

Бабочка, порхающая в хаотичном потоке жизни и пытающаяся убежать от хищника — этот образ был слишком хорошо знаком советским ученым, пытавшимся сохранить свою интеллектуальную автономию.

Американские и советские специалисты по искусственному интеллекту искали общие принципы: универсальные, вечные механизмы мышления и поведения. Однако их обобщения основывались на культурно обусловленных случаях. Примеры, которыми располагали американские и советские ученые, были, по сути, культурно специфичными моделями социальной организации и принятия решений. Пытаясь постичь универсальность, модели ИИ проявляли прямо противоположное: специфику культурных шаблонов.

Сама того не ведая, наука часто говорит с национальным акцентом. Культурные символические системы могут проявляться в научных представлениях так же ярко, как в литературе или искусстве. В своих симуляциях человеческого мышления системы AI действительно отражают как механизмы разума, так и модели иррациональности, индивидуальное творчество и социальные стереотипы, человеческую природу и человеческую культуру.

Ссылки:

1. Норберт Винер, «Кибернетика, или управление и коммуникация в животном и машине» (Кембридж, Массачусетс: MIT Press, 1961 [1948]), 6.

2. Артур Розенблат, Норберт Винер и Джулиан Бигелоу, «Поведение, цель и телеология», Философия науки 10 (1943): 18–24.

3. Патрик Уинстон, Искусственный интеллект (Рединг, Массачусетс: Эддисон-Уэсли, 1984 [1976]), 2–3.

4. Михаил Сергеевич Смирнов, ред., Моделирование обучения и поведения (М.: Наука, 1975), 3.

5. Джон Маккарти, «Программы со здравым смыслом», в книге «Семантическая обработка информации», под ред. Марвина Мински (Кембридж, Массачусетс: MIT Press, 1968), 403–9.

6. Клиффорд Гирц, «Здравый смысл как культурная система», в книге «Местные знания: дальнейшие очерки по интерпретативной антропологии» (Нью-Йорк: Basic Books, 1983), 76.

7. Там же, 92.

8. Джордж Лакофф и Марк Джонсон, «Метафоры, по которым мы живем» (Чикаго: University of Chicago Press, 1980).

9. См.: Алена Леденева, «Экономика благосклонностей в России: блат, нетворкинг и неформальный обмен» (Кембридж: Издательство Кембриджского университета, 1998).

10. Джером Брунер, «За пределами предоставленной информации: исследования в области психологии познания» (Нью-Йорк: Нортон, 1973), 151.

11. Андрей Брушлинский, «Почему «искусственный интеллект» невозможен», Вопросы философии нет. 2 (1979): 62.

12. Ньюэлл и Саймон, например, предсказали в 1958 году, что «в течение десяти лет большинство теорий в психологии примут форму компьютерных программ или квалификационных утверждений о характеристиках компьютерных программ»; Аллен Ньюэлл и Герберт Саймон, «Эвристическое решение проблем», Исследование операций 6, N 1 (1958): 7–8. В 1970 году Аллен Ньюэлл описал ИИ как «теоретическую психологию», роль которой заключалась в создании проблем для изучения экспериментальными психологами; см. Аллен Ньюэлл, «Замечания о взаимосвязи между искусственным интеллектом и когнитивной психологией», в книге «Теоретические подходы к решению нечисловых проблем», ред. Ранан Б. Банерджи и Михайло Д. Месарович (Berlin: Springer-Verlag, 1970), 363–400.

13. Герберт А. Саймон, «Поведенческая модель рационального выбора», The Quarterly Journal of Economics 69, no. 1 (февраль 1955): 100.

14. Хантер Кроутер-Хейк, Герберт А. Саймон: Границы разумного в Америке (Балтимор: Издательство Университета Джона Хопкинса, 2005), глава 3.

15. Герберт А. Саймон, «Рациональный выбор и структура среды», Психологическое обозрение 63, No2 (1956): 129–38.

16. Герберт А. Саймон, «Модели моей жизни» (Нью-Йорк: Basic Books, 1991), 360, 363.

17 Аллен Ньюэлл и Герберт А. Саймон, «GPS, программа, которая имитирует человеческое мышление», в книге «Компьютеры и мышление», под редакцией Эдварда А. Фейгенбаума и Джулиана Фельдман (Нью-Йорк: McGraw-Hill, 1963), 279.

18 Кроутер-Хейк, Герберт А. Саймон, 214.

19 Ливия Поланьи, «Рассказывая американскую историю: структурный и культурный анализ разговорного сторителлинга» (Норвуд, Нью-Джерси: Ablex, 1985), 140 (выделено автором).

20. О советской антикибернетической кампании см. Слава Герович, «От новояза к киберязыку: история советской кибернетики » (Кембридж, Массачусетс: MIT Press, 2002), глава 3.

21 О советском кибернетическом движении см. Герович, «От новояза к киберязыку», главы 4–6.

22. М. Петровский, «На грани научной фантастики», Знание–сила (Знание – сила) No 7 (1956): 23–24.

23. Программа Коммунистической партии Советского Союза. Принят XXII съездом КПСС 31 октября 1961 г. (М.: Изд-во иностранных языков, 1961), 66.

24. Виктор Д. Пекелис, "Человек, кибернетика и Бог", Наука и религия No 2 (1960): 27.

25. Аксель И. Берг, 'Проблемы управления и кибернетики' (1961), в Берг, Избранные труды, т. 2 (М.: Энергия, 1964), 87 (выделено автором).

26. Евгений И. Бойко и др., «Кибернетика и проблемы психологии», в книге «Кибернетика на службе коммунизма», под ред. Акселя И. Берга, т. 5 (М.: Энергия, 1967), 314–50.

27. Вениамин Пушкин, Психология и кибернетика (М.: Педагогика, 1971), 204.

28. Александр Кронрод, Беседы о программировании (М.: URSS, 2001), 168, 139.

29. Дмитрий Поспелов и Вениамин Пушкин, Мышление и автоматы (М.: Советское радио, 1972), 140–141 (выделено автором).

30. Там же, 139.

31. Исторический обзор см.: Поспелов Д. Ситуационное управление: теория и практика (М.: Наука, 1986), 254–58.

32 См. Осирис т. 23: Интеллигенция Наука: Русский век, 1860–1960, под ред. Майкла Д. Гордина, Карла Холла и Алексея Кожевникова (2008).

33 Станислав Рассадин, Книга прощаний (М.: Текст, 2004), 217.

34 Дэвид Холлоуэй, «Физика, государство и гражданское общество в Советском Союзе», Исторические исследования в физических и биологических науках 30, No1 (1999): 175.

35 Марк Азбель, цитируется там же, 187.

36 Вячеслав Вс. Иванов, «Из истории кибернетики в СССР. Из истории кибернетики в СССР: очерк жизни и творчества М. Л. Цетлина, в журнале Очерки истории информатики в России по истории информатики в России), под ред. Дмитрия А. Поспелова и Якова И. Фета (Новосибирск: ОИГГМ СО РАН, 1998), 568.

З7 Михаил Цетлин, Теория автоматов и моделирование биологических систем, пер. Скитрана (Нью-Йорк: Академическая пресса, 1973), 150–52.

38 Там же, 125

39 Мюррей Иден, «Предисловие», там же, xi.

40 Фон Нейман (1928), цитируется по Robert J. Leonard, 'From Parlor Games to Social Science: Von Neumann, Morgenstern, and the Creation of Game Theory, 1928–1944', Journal of Economic Literature 33 (June 1995): 735.

41 Стив Джей Хеймс, Джон фон Нейман и Норберт Винер: От математики к технологиям жизни и смерти (Кембридж, Массачусетс: MIT Press, 1980), 296.

42. Филип Мировски, «Когда игры становятся смертельно серьезными: влияние военных на эволюцию теории игр», в журнале «Экономика и национальная безопасность», дополнение к Истории политической экономии 23, под ред. Крауфурда Гудвина, (Дарем, Северная Каролина: Duke University Press, 1991), 237.

43. Филип Мировски, «Чего пытались достичь фон Нейман и Моргенштерн?» в книге «К истории теории игр», дополнении к Истории политической экономии 24, под ред. Э. Роя Вайнтрауба (Дарем, Северная Каролина: Duke University Press, 1992), 125, 127.

44. Цитируется по Мировски, «Когда игры растут», 251.

45. Алексей Кожевников, «Ритуалы сталинской культуры в действии: наука и игры внутрипартийной демократии около 1948 года», Русское обозрение 57 (январь 1998): 25—52; Николай Кременцов, «Сталинская наука » (Принстон: Принстонский университет, 1997), особенно 239–48; и Герович, «От новояза к киберязыку».

46. Цетлин, Теория автоматов, 6.

47. Виктор Варшавский и Дмитрий Поспелов, Куклы без нитей, пер. А. Кандаурова (М.: Мир, 1988), 97.

48. Цетлин, Теория автоматов, 132.

49. Николас Бернстайн, «Координация и регулирование движений» (Оксфорд: Пергамон Пресс, 1967), 173.

50. Варшавский и Поспелов, «Куклы без нитей», 100.

51. Там же, 101.

52. Там же, глава 3.

53. Там же, 102.

54. Евгений Л. Фейнберг, «Для будущего историка», в книге «О мире нами жизни: воспоминания о Сахарове», под ред. Бориса Л. Альтшулера и др. (М.: Практика, 1996), 679.

55. Simon (1945), цитируется по Crowther-Heyck, Herbert A. Simon, 112.

56. Simon (1954), цитируется там же, 6.

57. Варшавский и Поспелов, «Куклы без нитей», 77.

Автор: Слава Герович

Технический перевод и отметки в тексте: Дм. Холкин // 20.02.2025

Текст переведен по книге: Cybernetics for the 21st Century. Vol.1 Epistemological Reconstruction. Edited by Yuk Hui