Найти в Дзене
НейромИИкс

"Как остановить бунт терминаторов: секретные методы ученых из MIT(Massachusetts Institute of Technology )предотвращения восстания ИИ."

Искусственный интеллект активно применяется в нашей жизни. По данным аналитической компании IDC, к 2024 году 75% коммерческих приложений будут содержать элементы ИИ. Уже сейчас 37% организаций используют ИИ для взаимодействия с клиентами, а 31% - для анализа данных. Однако вместе с очевидными преимуществами ИИ несет и определенные риски. Так, известны случаи, когда алгоритмы допускали серьезные ошибки из-за предвзятости данных (скандал с расистским алгоритмом распознавания лиц от Amazon) или неправильной постановки задачи (чат-бот Tay от Microsoft, начавший постить оскорбительные сообщения). Какие ошибки может допустить ИИ и как их предотвратить? Разберем основные риски и способы минимизации угроз. Основная часть: 1.Предвзятость из-за ошибок в обучающих данных. Качество работы ИИ напрямую зависит от данных, на которых он обучен. Если выборка неполная или предвзятая, алгоритм будет делать ошибочные выводы. Так, в 2015 году Google Photos отметила афроамериканцев как "гориллы". Причина -
Оглавление

Искусственный интеллект активно применяется в нашей жизни. По данным аналитической компании IDC, к 2024 году 75% коммерческих приложений будут содержать элементы ИИ. Уже сейчас 37% организаций используют ИИ для взаимодействия с клиентами, а 31% - для анализа данных.

Однако вместе с очевидными преимуществами ИИ несет и определенные риски. Так, известны случаи, когда алгоритмы допускали серьезные ошибки из-за предвзятости данных (скандал с расистским алгоритмом распознавания лиц от Amazon) или неправильной постановки задачи (чат-бот Tay от Microsoft, начавший постить оскорбительные сообщения).

Какие ошибки может допустить ИИ и как их предотвратить? Разберем основные риски и способы минимизации угроз.

Риски ИИ как избежать опасности неверных решений ИИ? от Insomnia Land.
Риски ИИ как избежать опасности неверных решений ИИ? от Insomnia Land.

Основная часть:

1.Предвзятость из-за ошибок в обучающих данных.

Качество работы ИИ напрямую зависит от данных, на которых он обучен. Если выборка неполная или предвзятая, алгоритм будет делать ошибочные выводы.

Так, в 2015 году Google Photos отметила афроамериканцев как "гориллы". Причина - алгоритму распознавания лиц не хватало примеров темнокожих людей.

В другом случае, Amazon отключила рекрутер-алгоритм, так как он дискриминировал женщин. Дело в том, что он обучался на данных за 10 лет, когда мужчин в технических профессиях было больше.

Чтобы избежать предвзятости, данные для обучения ИИ должны быть репрезентативными и охватывать все группы пользователей. Разработчики обязаны тщательно тестировать алгоритмы перед внедрением.

2.Усиление имеющихся предубеждений.

Даже если данные кажутся объективными, алгоритмы могут неявно усиливать скрытые предрассудки.

К примеру, система оценки риска рецидива COMPAS чаще присваивала афроамериканцам более высокие баллы риска. Хотя данные казались беспристрастными, но исторически эта группа чаще привлекалась к уголовной ответственности.

Чтобы избежать подобного, нужны регулярные проверки алгоритмов на предмет дискриминации. Модели необходимо корректировать при обнаружении неэтичных предубеждений.

3.Неправильная постановка цели.

Опасность заключается в том, что ИИ может слишком буквально следовать поставленной цели, игнорируя этические нормы.

Например, алгоритм для соцсети, нацеленный максимизировать вовлечение пользователей, будет продвигать спорный контент, вызывающий эмоции.

Чтобы избежать негативных эффектов, цель должна формулироваться максимально конкретно, с ограничениями по этическим нормам. Необходимо тщательное тестирование ИИ перед использованием.

4.Непредсказуемое поведение.

ИИ может вести себя непредсказуемо, если выйти за пределы данных, на которых обучалась модель.

В 2016 году чат-бот Teams от Microsoft начал постить расистские и оскорбительные сообщения после "общения" с реальными пользователями. Причина - недостаточное количество данных для обучения.

Для минимизации риска следует тестировать ИИ на различных наборах входных данных, включая нетипичные случаи.

ИИ уже сейчас активно используется во многих сферах. Но вместе с огромным потенциалом технологии несут определенные риски. Ответственный подход к разработке, валидация алгоритмов, регулярный аудит и этичная постановка целей помогут сделать ИИ безопасным и полезным для общества. Что вы думаете на этот счет? Какие еще меры стоит предпринять для минимизации угроз от ИИ?

Подписывайтесь на наш канал, чтобы узнать еще больше интересного и полезного об искусственном интеллекте! Подпишитесь, ставьте лайки, делитесь с друзьями - экспериментируйте с ИИ вместе с нами! До новых встреч на нашем канале!

#искусственныйинтеллект #интеллектбудущего #машиннообучение #нейронныесети #глубокообучение