Исследователи Лафборского университета разработали прототип ИИ-модели, которая может объяснить каждый шаг своего обучения и принятия решений. Этого не могут стандартные нейросети — «черные ящики», но это крайне важно для уверенности в их корректной работе. Прозрачной модели — можно доверять. «Черный ящик» в ИИ — это не метафора, а системная проблема. Большинство современных нейросетей, включая большие языковые модели, не могут объяснить, почему они дают тот или иной ответ: веса миллиардов параметров взаимодействуют непредсказуемо. Особенно остро это вопрос стоит в медицине и праве, где алгоритм обязан не только быть точным, но и давать обоснование решения. Принятый в 2018 году европейский регламент GDPR закрепил «право на объяснение» для автоматических решений, но большинство систем глубокого обучения технически не способны его реализовать. Исследователи опубликовали в журнале Physica D: Nonlinear Phenomena математическую основу для построения «прозрачных» систем ИИ. Прототип имеет ана
«Прозрачная» ИИ-модель может объяснить, как она обучается и принимает решения
ВчераВчера
3
2 мин