Искусственный интеллект может делать удивительные вещи, недоступные людям, но во многих случаях мы понятия не имеем, как системы ИИ принимают решения. Это и называется “черным ящиком систем ИИ”. Причины этого сильно различаются: Собственные разработки — внутренняя работа модели ИИ держится в секрете для защиты интеллектуальной собственности. Глубокое обучение. Глубокие нейронные сети и алгоритмы глубокого обучения создают тысячи (а иногда и миллионы) нелинейных отношений между входными и выходными данными. Сложность отношений затрудняет (или даже делает недоступным) даже для разработчика объяснение того, какие функции или взаимодействия привели к определенному результату. Почему это является важной проблемой? Это затрудняет исправление систем глубокого обучения, когда они приводят к нежелательным результатам. Если, например, автономный автомобиль сбивает пешехода, вместо того, чтобы нажать на тормоз, "черный ящик ИИ" не позволяет проследить мыслительный процесс системы и понять, поче