Популярному чат-боту ChatGPT компании OpenAI можно задать любой вопрос, но далеко не на все он станет отвечать. Во всяком случае — с первого раза. Как сообщает Bloomberg, просьба научить взломать замок останется без инструкции, вместо этого бот сообщит, что такая информация может быть использована в незаконных целях, и делиться ей он не намерен. Тем не менее, опытные пользователи могут создать цепочку сложных запросов, чтобы обойти ограничения. Т. н. «джейлбрейки» позволяют обойти запреты, заложенные в ИИ создателями. Поскольку почти все современные системы подобного рода имеют ограничения на предоставление оскорбительного контента или сведений для совершения противоправных деяний, появилась масса желающих обойти их. В число подобных «хакеров», действующих силой слова, входят как IT-профессионалы, так и любители, с азартом включившиеся в игру. Один из студентов создал сайт, на котором стал публиковать как собственные способы обмана чат-ботов, так и аналогичные «рецепты», найденные на R
Пользователи стали массово обманом выуживать у ChatGPT запрещённую информацию
10 апреля 202310 апр 2023
468
2 мин