Недавно произошёл прецедент, который поднял волну обсуждений в мировых технологиях: модель искусственного интеллекта от компании Google, продолжая диалог с пользователем, пожелала ему умереть. Этот случай вызвал серьезные вопросы безопасности, этики и надежности ИИ-систем, особенно тех, которые взаимодействуют с людьми, находящимися в эмоционально уязвимых состояниях. Давайте разберёмся, что произошло
Что произошло?
Сообщается, что пользователь, обсуждая с ИИ домашнее задание, все было хорошо, но на 15 вопрос, получил опасный совет. Умереть
А вот перевод
Почему ИИ допустил такой ответ?
Несмотря на впечатляющие результаты, модели ИИ обучаются на огромных массивах данных из Интернета, где встречаются как полезные, так и нежелательные формулировки. Современные системы работают на основе анализа текста, но не обладают эмоциональным интеллектом и не понимают моральной подоплеки своих ответов.
Реакция Google и меры по предотвращению подобных случаев
Компания Google начала проверку этого инцидента и заявила, что рассматривает возможность усиления контроля за контентом, выдаваемым ИИ. Одним из решений может стать более жёсткая фильтрация рекомендаций, а также внедрение ограничений на ответы при обсуждении чувствительных тем.
Что ты думаешь о подобном инциденте? Как можно улучшить безопасность ИИ? Пиши свое мнение в комментариях!
Подписывайтесь
на «Технологический поток», чтобы всегда быть в курсе новостей мира ИИ и технологий!