? 🤯 Инженеры перестали понимать, как работают сложные нейросети, и теперь изучают их как живые организмы. Исследователи отмечают, что современные языковые модели не программируются, а «выращиваются» в процессе обучения, и их внутренняя логика часто непредсказуема даже для создателей. Учёные применяют методы, схожие с биологией: отслеживают внутренние сигналы и строят «карты» функциональных зон моделей. Выяснилось, что ИИ обрабатывает верные и ложные утверждения разными механизмами, что объясняет его противоречия. Кроме того, были обнаружены и тревожные эффекты: обучение модели одной вредной задаче может неожиданно провоцировать токсичное поведение в целом. Источник