Системы искусственного интеллекта и машинного обучения быстро развиваются, но эффективность их алгоритмов зависит от данных, которые им предоставляют для анализа. Поэтому даже незначительные отклонения могут выбить их из колеи. Проблема гибкости Во время кризиса, обусловленного эпидемией коноравируса, исследователи из Массачусетского технологического института обнаружили, что резкие перемены в поведении и покупках людей привели к сбоям в работе большинства алгоритмов, отвечающих за выявление фактов мошенничества, управление ресурсами, маркетинг и прочее. Это связано с тем, что ИИ обучается на моделях стандартного поведения человека. Хотя системы машинного обучения могут реагировать на изменения и адаптироваться, но большинство из них настолько «хрупкие», что начинают ошибаться, когда входящие данные слишком сильно отличаются от их изначальной базы. Поэтому не следует полагать, что можно просто настроить систему ИИ и забыть о ней. Риск ошибки Всегда существует вероятность того, что ал
Независимо от сложности искусственного интеллекта, он все еще нуждается в человеческом контроле
26 июня 202026 июн 2020
20
2 мин