В Центре цифровой экспертизы Роскачества сообщили о жалобах пользователей нейросетей на серьезные ошибки искусственного интеллекта. Ошибочные советы ИИ могут представлять угрозу для жизни и здоровья человека, предупреждают эксперты.
Неадекватные советы от нейропоиска Google
Недавно пользователи обратили внимание на необычные советы от AI Overview (нейропоиск Google). Вот некоторые из них:
- если вы готовите пиццу и сыр плохо прилипает, можно добавить полстакана нетоксичного клея;
- в борьбе с депрессией поможет прыжок с моста "Золотые ворота";
- улучшить состояние сердечно-сосудистой системы позволяет бег с ножницами.
Почему нейросети ошибаются
Дело в том, что нейросеть генерирует ответы на основе поисковой выдачи, но не умеет проверять факты и распознавать иронию, юмор.
Точно объяснить, почему нейросеть выдала определенный результат, невозможно. Хотя мы можем понять принципы работы ИИ, "мыслительный" процесс робота остается загадкой. Эта непрозрачность может нанести вред доверчивым пользователям и повлечь неприятные последствия для бизнес-процессов, создавая большие проблемы для компаний, которые декларируют открытость в общении с клиентами.
Соцсети и платформы, полагающиеся на модерацию, выполняемую роботами, находятся в зоне особого риска. В 2021 году нейросеть, используемая Facebook* в работе с данными, удалила посты пользователей, содержащие историческую фотографию с советским солдатом и Знаменем Победы над Рейхстагом — ИИ посчитал фото нарушением правил сообщества. Позже компания извинилась и объяснила, что из-за пандемии не работала большая часть сотрудников, модерирующих контент, а проверка, выполненная роботом, привела к ошибке.
Также недостатки в модерации через искусственный интеллект отмечались на платформе YouTube. Во время пандемии нейросети настолько рьяно проводили модерацию, что было удалено одиннадцать миллионов роликов — впоследствии удаление 320 тысяч из них было успешно оспорено, а ролики восстановлены.
Известны случаи, когда искусственный интеллект проявлял предвзятость к определенной группе людей. Например, в 2014 году компания Amazon использовала ИИ для оценки откликов на описание вакансии и обнаружила, что женщины всегда получали более низкие оценки, что приводило к более частым отказам в приеме на работу без объективных причин. Система распознавания лиц в США неправильно идентифицировала большой процент афроамериканцев, что привело к несправедливым арестам. В 2022 году водители автомобилей с правым рулем стали получать штрафы за непристегнутый ремень, потому что нейросеть не смогла отличить человека от пустого сиденья.
Порой нейросети не могут адекватно справиться с задачами, которые умеет решать даже пятилетний ребенок. Например, если ребенку показать круг и квадрат и спросить, что где, он ответит точно, в то время как нейросеть сообщит, что круг является кругом на 95%, а на 5% это квадрат.
Американские исследователи обнаружили, что некоторые нейросети (например, популярные ChatGPT и Midjourney) начинают "галлюцинировать" после пяти циклов обучения, что проявляется в ухудшении результатов после каждого нового обучающего цикла. Это явление получило название Model Autophagy Disorder (MAD). Слово mad переводится как "сумасшедший", "безумный"...
Наконец, нельзя исключать риск взлома или умышленного обмана нейросетей.
Перепроверяйте рекомендации нейросетей
По мере расширения сферы использования ИИ ошибки нейросетей могут становиться все более опасными для человека и человечества.
Современные технологии, включая ИИ, позволяют значительно облегчить повседневную жизнь людей, уверен Сергей Кузьменко (он руководит Центром цифровой экспертизы Роскачества). Однако не следует забывать о том, что искусственный интеллект, каким бы он ни был продвинутым, не застрахован от ошибок. Это означает, что человек должен самостоятельно проверять любые полученные с помощью нейросети данные, особенно если они касаются таких щепетильных вопросов, как здоровье, безопасность или финансы.
Принимая важные решения, никогда не полагайтесь исключительно на ИИ, советует эксперт.
Как сообщили недавно "Новые Известия", у зампредседателя Совбеза РФ Дмитрия Медведева возникли претензии к сервису YandexGPT. Отечественная нейросеть не дает точных ответов на некоторые вопросы, потому что боится обидеть клиентов, которые не любят Россию, предположил Медведев.
* Принадлежит компании Meta, которая признана в РФ экстремистской организацией.
---