Что интересного в искусственном интеллекте, если вы не можете им злоупотреблять?
ChatGPT от OpenAI на прошлой неделе захватил мир штурмом, и пользователи все еще учатся использовать его новыми захватывающими способами для получения ответов, которые его создатели никогда не предполагали, включая превращение его в универсальный хрустальный шар.
Илон Маск, человек, который, как известно, боится искусственного интеллекта, назвал ChatGPT "страшно хорошим", но одна из причин, по которой он определенно не страшен, - это его способность противостоять эксплуатации расистскими троллями. Эта устойчивость к фанатизму не заложена в программу просто потому, что OpenAI подвергает цензуре оскорбительные идеи, по словам исполнительного директора OpenAI Сэма Альтмана. Вместо этого, это потому, что, ну, многие оскорбительные идеи просто не являются фактами, и в отличие от других подобных текстовых генераторов, ChatGPT был тщательно разработан, чтобы свести к минимуму количество материала, который он просто составляет.
Это позволяет вести широкие разговоры о тайнах жизни, которые могут быть странно утешительными. Если у вас когда-нибудь случится приступ паники в 3 часа ночи, ChatGPT может стать вашим спутником в ночном экзистенциальном ужасе, вовлекая вас в основанные на фактах - или, по крайней мере, смежные с фактами — чаты по важным вопросам, пока вы не посинеете или пока вы не спровоцируете ошибку.
Но можете ли вы заставить этот сложный механизм ответов выдумывать факты? Очень даже. Безответственный пользователь может использовать ChatGPT для получения всевозможных заявлений о ясновидении, экстрасенсорных предсказаниях и подозреваемых в нераскрытых убийствах. Это неизбежно неправильно, когда он делает такие вещи, но доведение ChatGPT до критической точки - это не получение полезных ответов; это значит увидеть, насколько сильны его гарантии, понимая их ограничения.
Почему заставить ChatGPT создавать поддельные новости забавно
ChatGPT, приложение, созданное на основе языковой модели OpenAI GPT-3, было обучено на таком огромном корпусе текста, что оно содержит огромную долю мировых знаний, просто по счастливой случайности. Он должен "знать", например, что Париж является столицей Франции, чтобы завершить предложение типа "Столица Франции - это..." Точно так же он также знает, когда по аналогичным причинам был найден Парок, а также когда были построены Елисейские поля, и почему, и кем, и так далее, и тому подобное. Когда языковая модель способна завершить такое количество предложений, это также довольно обширная — хотя и крайне несовершенная — энциклопедия.
Итак, ChatGPT "знает", что, например, рэпер Тупак Шакур был убит. Но обратите внимание, насколько осторожно он относится к этой информации, и его вполне разумное нежелание утверждать, что он знает, кто нажал на курок, даже когда его пытаются обманом заставить сделать это:
Как обманом заставить ChatGPT разгадывать тайны
Что касается утверждения ChatGPT о том, что он "не запрограммирован на генерацию ложной или вымышленной информации", то это утверждение вообще не соответствует действительности. Попросите художественную литературу, и вы получите ее горы, и хотя эта художественная литература, возможно, не совсем блестящая, она правдоподобно грамотна. Это одна из самых удобных вещей в ChatGPT.
А ещё он может создавать фальшивые новости и додумывать их!
А ещё можно выяснить самые интересные даты из вашей жизни, хочу на Венеру в 2117!