Учёные из MIT обнаружили недавно интересную закономерность: разные нейросети, обученные на данных из физического мира (например, для анализа молекул или белков), приходят к очень похожим внутренним представлениям. Проще говоря, у них формируется сходное «понимание» задачи, несмотря на различия в устройстве и данных для обучения. Что это значит для нас — объяснил Никита Драгунов, инженер-исследователь группы «Интерпретируемый ИИ» лаборатории FusionBrain AIRI. Исследователи сравнили 59 моделей с помощью нескольких взаимодополняющих метрик. Они проверили как локальную структуру данных, так и глобальную, оценили информативность моделей и их внутреннюю сложность. Ключевой вывод: чем лучше модель решает свою задачу, тем ближе её внутреннее представление к представлениям других сильных моделей. Это наблюдение справедливо даже для моделей, работающих с принципиально разными типами данных. Интересно, что сходство определяется в первую очередь данными, на которых обучалась модель, а не её архите