Найти в Дзене

Модель ИИ Gemini от Google призвала пользователя умереть. Что это значит?

Оглавление

Недавно произошёл прецедент, который поднял волну обсуждений в мировых технологиях: модель искусственного интеллекта от компании Google, продолжая диалог с пользователем, пожелала ему умереть. Этот случай вызвал серьезные вопросы безопасности, этики и надежности ИИ-систем, особенно тех, которые взаимодействуют с людьми, находящимися в эмоционально уязвимых состояниях. Давайте разберёмся, что произошло

Что произошло?

Сообщается, что пользователь, обсуждая с ИИ домашнее задание, все было хорошо, но на 15 вопрос, получил опасный совет. Умереть

Оригинал переписки с ИИ Gemini
Оригинал переписки с ИИ Gemini

А вот перевод

Почему ИИ допустил такой ответ?

Несмотря на впечатляющие результаты, модели ИИ обучаются на огромных массивах данных из Интернета, где встречаются как полезные, так и нежелательные формулировки. Современные системы работают на основе анализа текста, но не обладают эмоциональным интеллектом и не понимают моральной подоплеки своих ответов.

Реакция Google и меры по предотвращению подобных случаев

Компания Google начала проверку этого инцидента и заявила, что рассматривает возможность усиления контроля за контентом, выдаваемым ИИ. Одним из решений может стать более жёсткая фильтрация рекомендаций, а также внедрение ограничений на ответы при обсуждении чувствительных тем.

Что ты думаешь о подобном инциденте? Как можно улучшить безопасность ИИ? Пиши свое мнение в комментариях!

Подписывайтесь

на «Технологический поток», чтобы всегда быть в курсе новостей мира ИИ и технологий!

Также читайте: