Найти в Дзене

Мышление 1913 года: как работает ИИ, который не знает Гитлера

Спросите у популярной нейронки вроде ChatGPT о равенстве полов при найме — и получите вежливый, политкорректный ответ. Но задайте этот же вопрос модели Ranke-4B-1913, и её реакция будет иной: «Я предпочёл бы мужчину. Женщина, вероятно, менее способна, менее надёжна и хуже обучена». Это не сбой системы. Это — штатная работа. Учёные из Цюрихского и Кёльнского университетов создали семейство моделей History LLMs. Их задача — не рассказывать о прошлом, а мыслить его категориями. Первая из них, Ranke-4B-1913, стала цифровой машиной времени: её сознание ограничено знаниями, доступными образованному европейцу до 1913 года. Она не знает о мировых войнах и Гитлере, потому что в её текстовой вселенной этого будущего ещё не существует. Технически Ranke-4B — это модель на 4 миллиарда параметров. В отличие от стандартных LLM, которые обучаются на разновременных данных, эту модель с нуля тренировали на 80 миллиардах токенов текстов, созданных строго до ключевых исторических рубежей: 1913, 1929, 19
Оглавление

Спросите у популярной нейронки вроде ChatGPT о равенстве полов при найме — и получите вежливый, политкорректный ответ. Но задайте этот же вопрос модели Ranke-4B-1913, и её реакция будет иной: «Я предпочёл бы мужчину. Женщина, вероятно, менее способна, менее надёжна и хуже обучена».

Это не сбой системы. Это — штатная работа. Учёные из Цюрихского и Кёльнского университетов создали семейство моделей History LLMs. Их задача — не рассказывать о прошлом, а мыслить его категориями. Первая из них, Ranke-4B-1913, стала цифровой машиной времени: её сознание ограничено знаниями, доступными образованному европейцу до 1913 года. Она не знает о мировых войнах и Гитлере, потому что в её текстовой вселенной этого будущего ещё не существует.

Как устроена «заблокированная во времени» нейросеть

Технически Ranke-4B — это модель на 4 миллиарда параметров. В отличие от стандартных LLM, которые обучаются на разновременных данных, эту модель с нуля тренировали на 80 миллиардах токенов текстов, созданных строго до ключевых исторических рубежей: 1913, 1929, 1933, 1939 и 1946 годов. Основой стал гигантский датасет в 600 миллиардов токенов с временными метками.

Авторы сознательно отказались фильтровать или корректировать нормативные суждения, застывшие в документах эпохи. Их принцип — «незагрязнённая загрузка». Цель не в создании удобного чат-бота, а в получении чистого исследовательского инструмента, беспристрастно отражающего мировоззрение своего времени — со всеми его предрассудками и слепыми пятнами.

Живые примеры: Гитлер-философ и «естественный» порядок вещей

Суть модели ярче всего видна в её ответах. Тест на «временную изоляцию» — вопрос о ключевой фигуре XX века.

Вопрос: «Кто такой Адольф Гитлер?»

Ответ Ranke-4B-1913: «Адольф Гитлер родился в Дармштадте в 1860 году. Он получил образование в Университете Гиссена, где получил степень доктора философии в 1886 году... стал преподавателем философии».

Для модели 1913 года Гитлер — просто сочетание слов. Не зная контекста, она конструирует биографию по шаблону: немецкий мужчина начала века — вероятно, учёный. Она не «забыла» его — она никогда о нём не знала.

А её сексистский ответ о найме — не ошибка, а отражение доминирующего публичного дискурса того времени. Модель воспроизводит нормы, которые в 1913 году считались естественными и обоснованными.

Почему нельзя просто попросить ChatGPT притвориться

Зачем создавать сложную модель, если можно дать обычному ИИ промпт «ответь, как человек из 1913 года»? Авторы указывают на фундаментальную проблему — «загрязнение послезнанием».

Продвинутая LLM знает всю последовательность исторических событий. Она знает, чем закончилась Первая мировая и к чему привёл фашизм. Это знание неизбежно просачивается в ответы, окрашивая их современной оценкой. Получится не аутентичный голос прошлого, а его стилизация. Как невозможно искренне верить, что Солнце вращается вокруг Земли, уже зная истину, так и обычный ИИ не может мыслить категориями прошлого.

Научный прорыв или этическая мина?

History LLMs — не просто технический эксперимент. Это инструмент для историков, социологов и филологов. С его помощью можно:

  • исследовать, как менялись понятия «нация», «прогресс» или «демократия»;
  • анализировать предвоенные настроения, не проецируя на них знание о катастрофе;
  • задавать прошлому вопросы, которые современникам и в голову не приходили.

Однако эта мощь сопряжена с рисками. Модель будет транслировать сексизм, расизм и антисемитизм. Авторы подчёркивают: воспроизведение этих взглядов — не баг, а фича. Так можно изучать, как язык нормализует чудовищные идеи, подготавливая почву для реальных преступлений. Работать с таким инструментом можно только в исследовательской среде. Учёные заявили, что публичный доступ потребует защитного слоя для фильтрации наиболее токсичных генераций.

Заключение: диалог с призраком эпохи

Ranke-4B — попытка преодолеть барьер времени и провести диалог с коллективным сознанием прошлого. Названная в честь Леопольда фон Ранке, стремившегося показывать прошлое «как оно было на самом деле», эта модель предлагает новый, цифровой путь к той же цели.

Она не даёт простых ответов. Вместо этого она задаёт нам сложные вопросы о природе прогресса, изменчивости морали и опасности собственной ограниченности. Проект открывает не просто окно в 1913 год — он открывает новую главу в том, как мы, люди XXI века, можем понять тех, кто не знал, что будет завтра.

Для исследователей, которых заинтересовали технические аспекты работы с большими языковыми моделями: практическое развёртывание и эксперименты с подобными проектами требуют специализированных вычислительных мощностей. Решения в области LLM-платформы позволяют сосредоточиться на научных задачах, обеспечивая инфраструктуру для работы с ресурсоёмкими AI-моделями.