Системы искусственного интеллекта и машинного обучения быстро развиваются, но эффективность их алгоритмов зависит от данных, которые им предоставляют для анализа. Поэтому даже незначительные отклонения могут выбить их из колеи.
Проблема гибкости
Во время кризиса, обусловленного эпидемией коноравируса, исследователи из Массачусетского технологического института обнаружили, что резкие перемены в поведении и покупках людей привели к сбоям в работе большинства алгоритмов, отвечающих за выявление фактов мошенничества, управление ресурсами, маркетинг и прочее. Это связано с тем, что ИИ обучается на моделях стандартного поведения человека.
Хотя системы машинного обучения могут реагировать на изменения и адаптироваться, но большинство из них настолько «хрупкие», что начинают ошибаться, когда входящие данные слишком сильно отличаются от их изначальной базы. Поэтому не следует полагать, что можно просто настроить систему ИИ и забыть о ней.
Риск ошибки
Всегда существует вероятность того, что алгоритмы сделают неверные предположения, которые приведут к снижению производительности или доступности данных. Использование ошибочных прогнозов в сфере бизнеса может привести к дополнительным расходам, а в медицине ценой могут стать человеческие жизни, особенно если система способна действовать самостоятельно.
Проблема заключается в том, что на современном этапе развития технологий, искусственный интеллект и машинное обучение невозможно просто так перенести в существующую инфраструктуру. Для интеграции нынешние системы нужно предварительно адаптировать и настроить. Помимо прочего, такой переход должен проходить плавно, чтобы избежать катастрофических сбоев в работе.
Полная автономность
Специалисты всегда будут играть ключевое значение в управлении потоком данных, их качестве и своевременности поступления к системам машинного обучения. Хотя сам процесс будет автономным, но контекст информации требует участия человека. Машины все еще не могут самостоятельно научиться правильно, например, управлять автомобилем или оптимизировать энергопотребление без нашей помощи, а до полностью самостоятельных баз данных все еще далеко.
ИИ пока не способен решить сложных глобальных проблем, но постепенная разработка различных подходов к разбору узкоспециализированных сценариев со временем приведет к появлению полностью автономной системы управления. Однако в таком случае возникает вопрос контроля и подтверждения поступающих данных.
Доверие и контроль
Чем больше организации будут использовать ИИ, тем больше людей потребуется привлечь для проверки и фильтрации входящей информации. По словам исследователей, зачастую более 80% успеха обучения алгоритмов связано с поиском, переводом, анализом и подготовкой данных к сложным моделям.
Для этой работы не обязательно иметь ученую степень или диплом аналитика, поскольку всю сложную техническую часть система сейчас берет на себя. Поэтому компании смогут нанимать людей, которые хорошо разбираются в конкретной области.
Тем не менее, технические специалисты и программисты по-прежнему будут играть важную роль, улучшая модели систем ИИ и наблюдая за их работой.
Для развития канала нам важна ваша поддержка, подписывайтесь на канал и ставьте лайки.