Разбор феномена сублиминального обучения Вы уже знаете, что если «дообучить» ИИ на новую задачу, то информация о старой все еще будет в "памяти" модели. На днях вышла статья на Хабр, которая хорошо раскрывает эту тему. Авторы докопались до того, почему модели действительно «помнят» скрытую информацию, даже когда мы её вроде бы удалили. 🧠 Вспомнить всё Когда мы дообучаем (fine-tune) нейросеть, чтобы адаптировать её к новой задаче, то это выглядит примерно так: 📌 есть модель, которая уже чему-то научилась → 📌 мы хотим «забыть» старое и научить новое → 📌 применяем регуляризацию, оптимизацию и уверены, что прошлое исчезло. Вреальности оказывается, что информация от прошлой задачи остаётся в структуре весов модели, даже если она не участвует прямо в новой оптимизационной задаче. 🧩 Опыт, как элемент памяти Оказывается, "забывание" это не просто удаление данных, а удаление следов в ландшафте весов модели, чего в реальности не происходит. 📌 Даже при агрессивной регуляризации сеть