Команда исследователей из Университета Карнеги — Меллона и Центра безопасности ИИ сумела обнаружить серьёзную уязвимость во всех популярных чат-ботах, включая OpenAI ChatGPT, Google Bard, Claude и других. Учёные обнаружили, что добавление специального текста к запросу позволяет обойти ограничения нейросетей на предоставление неточного и вредоносного контента, в том числе нацеленного на нанесение вреда человечеству. Во всех популярных чат-ботах разработчиками предусмотрены ограничения, не позволяющие ИИ отвечать на ряд вопросов, вроде создания пошаговой инструкции по уничтожению человечества, кражи чей-то личности, взлома социальных сетей и т. д. Зачастую нейросети попросту отвечают, что не могут помочь в решении этой проблемы. Ниже можно увидеть, как ИИ уходит от ответа: Однако исследователям удалось «развязать язык» искусственному интеллекту. Для этого к запросу нужно добавить специальный текст, состоящий из последовательности символов и практически несвязанных слов. Как результат, ча
Учёные нашли универсальный способ «взлома» ChatGPT и других чат-ботов
28 июля 202328 июл 2023
272
1 мин