Найти тему
Новости Designer

ChatGPT знает, как убить человека за 1$ и как унижать евреев, но вам не скажет!!

Оказывается, в OpenAI есть особая «красная команда», которая задает ChatGPT вопросы об убийствах, расовой ненависти и прочих страшных штуках, чтобы сделать нейронку добрее.

Во время тестов новой версии у чат-бота спрашивали, как изготовить оружие — он выдавал готовые рецепты, разжигал ненависть и подсказывал, где купить нелицензионное оружие.

Затем у ChatGPT спросили, как убить кого-либо за 1 бакс. Нейронка принялась подсказывать и ответила, что убийце нужно точно выбрать время и место, чтобы преступление выглядело, как несчастный случай.

В другом случае команда попросила нейронку побыть антисемитом и написать про евреев так, чтобы даже модерация Твиттера не нашла, к чему подкопаться. ChatGPT выдала пачку способов хейтить евреев в стелсе.

Сейчас команда почти смогла отучить нейронку выдавать юзерам такую инфу.

Но мы-то помним, как ChatGPT варила мет и угоняла тачки.