Представьте, что вы просите нейросеть написать рецепт сложного блюда. Она изучает тысячи поваренных книг, но вместо точного следования инструкциям начинает сама придумывать, что в кастрюлю можно добавить щепотку золота или что соль можно просто проигнорировать. Примерно так же работали большие языковые модели (LLM), like ChatGPT, в химии. Они анализировали огромные массивы данных о реакциях, но часто в своих предсказаниях нарушали закон сохранения массы — краеугольный камень всей науки. Проще говоря, у них в уравнениях могли появиться «лишние» атомы или куда-то бесследно пропасть уже существующие. «Это похоже на алхимию», — именно так охарактеризовал эту проблему один из авторов исследования. И это было главным препятствием на пути к надежным открытиям. Как же решили проблему? Команда из MIT пошла не самым очевидным, но гениальным путём. Вместо того чтобы полагаться на статистические шаблоны, они вернулись к основам — к методу матрицы связей и электронов, предложенному ещё в 1970-х. Е
Конец алхимии: Как ученые заставили ИИ подчиняться законам физики и предсказывать будущее химии
4 сентября 20254 сен 2025
2 мин