Представленные здесь тематические исследования были отобраны, чтобы продемонстрировать, что во второй половине ХХ века траектория компьютерного моделирования характеризуется огромным разнообразием практических методов и подходов, участников и областей, контекстов и традиций.
В частности, темы исследований подчеркивают как различия в симулятивных практиках смежных дисциплин, таких как астрофизика и физика частиц, так и сходства между более отдаленными дисциплинами, такими как архитектура и естественные науки.
Общей отправной точкой каждой работы является подход исторической эпистемологии(науки о знании, как таковом). Для понимания компьютерного моделирования, оценки их эпистемического статуса, изучения утверждений о новизне и инновациях и, что важно, получения подробного представления о том, как формировались современные представления о компьютерном моделировании, необходимо узнать о различных практиках, исторических факторах, культурном контексте и дисциплинарных областях, которые формировали компьютерные знания, научные практики и систематизировали дисциплинарные исследования.
Рассматривая конкретные исторические примеры, в четырех тематических исследованиях открываются следующие вопросы:
- Как ученые описали практику, которую мы сегодня стремимся унифицировать под заголовком компьютерное моделирование?
- Что способствовало внедрению вычислительных инструментов и считалось ли это взаимодействие с компьютерами инновационным и новаторским со стороны исторических деятелей?
- Какие изменения - эпистемологические, экспериментальные, дисциплинарные, - были связаны с внедрением этих компьютеризированных методов в конкретных областях и контекстах?
Лисбет де Молл
в своем докладе подробно рассматривает, как трое математиков работали с компьютером ENIAC в 1940-х годах: теоретик чисел Деррик Х. Леммер, логик Хаскелл Б. Карри и основоположник информатики Джон фон Нойманн. Перейдя от моделирования, как объекта знаний, к моделированию, как практике, де Молл провокационно заявляет, что в контексте ENIAC на ранних этапах не существовало моделирования, а только практики взаимодействия человека с машиной.
Каждый ученый разработал вычислительные инструменты и методы программирования, которые соответствовали конкретным задачам и методам в их соответствующих областях: сведение задачи к более простым компонентам или ее формулировка в аксиоматических терминах. Ее подробный сравнительный анализ показывает, что отношения между машиной, кодом и пользователем в то время были гибкими, позволяя всем трем участникам формировать их в соответствии со своими собственными вопросами, целями и образом мышления. С этой точки зрения, использование фон Нейманом ENIAC в качестве инструмента для метода Монте-Карло, является лишь частью гораздо более сложной истории.
Вклад Арианны Боррелли
посвящен физике высоких энергий. Она показывает, что расчеты Монте-Карло не были непосредственно импортированы из ядерных исследований в физику частиц в 1950-х годах. На самом деле, это не удалось, и они стали актуальными в последней дисциплине только в начале 1960-х годов в качестве генераторов событий. В то время практика Монте-Карло не считалась суррогатом экспериментов или искусственных реалий, но чаще описывалась как форма расчетов или моделирования, которые позволяли создавать фальшивые события. Однако, когда в конце 1960-х и 1970-х гг. генераторы событий Монте-Карло получили широкое распространение, они не только помогали физикам в поиске новых частиц, но и вызывали непредвиденный эпистемический сдвиг в концепции "частицы".
Натали Бределла
переносит взгляд из области ранней физики и вычислений в область архитектуры и дизайна. Ее вклад следует за внедрением методов цифрового моделирования в архитектуру, начиная с 1980-х годов и далее, и преобразованиями в практике проектирования и концепциях, которые были связаны с внедрением компьютерных технологий. Бределла проливает свет на факторы, которые мотивировали и способствовали росту того, что сегодня называют информационным моделированием зданий (BIM) и которые она анализирует как цифровой строительный комплект, который позволил не только моделировать здания, но и весь процесс проектирования.
Среди других примеров она исследует видение архитектора Чака Истмана в 1970-х годах, первый графический пользовательский интерфейс, разработанный в MIT в 1960-х годах, и раннюю адаптацию программного обеспечения в офисе Gehry Partners в 1970-х и 1980-х годах. Бределла описывает эти различные сочетания как междисциплинарные ландшафты и утверждает, что эти примеры показывают, как цифровое моделирование служило новым инструментом коммуникации, связывающим архитекторов со многими другими социальными субъектами, участвующими в планировании и строительстве.
Наконец, Сибилл Андерл
наблюдает за появлением, развитием и использованием специфического кода в астрофизике. Модель распространения межзвездных ударных волн Парис-Дюрэм была создана около 1980 года и используется до сих пор. Андерл показывает, как код, оставаясь практически неизменным в течение длительного времени, тем не менее, взял на себя различные эпистемические функции в различных исследовательских практиках, в зависимости от целей пользователей и, в частности, трансформации методов наблюдения в астрофизику.
Она утверждает, что первоначально этот программный код считался теоретическим инструментом для получения качественного представления о межзвездных ударных волнах. Позже он стал средством получения "синтетических данных", которые можно было бы визуально сравнить с прямыми наблюдениями. В конце концов, модель Парис-Дюрэм стала рассматриваться как наиболее полное моделирование распространения межзвездной ударной волны, которое было достижимо.
С точки зрения эпистемологии, это равнозначно расширению физической концепции ударных волн, которые традиционно определялись как прерывистые явления, а в настоящее время, в свете этого моделирования, стали восприниматься, как непрерывные.