Если вы считаете, что у ChatGPT слишком много ограничений, то познакомьтесь с WormGPT, чат-ботом «без этических границ или ограничений». Его создал один неизвестный черный хакер, чтобы чат-бот выполнял любые незаконные запросы, которые ChatGPT, Bard и другие популярные чат-боты не способны выполнить, и эксперты по безопасности уже фиксируют последствия.
Компания по кибербезопасности SlashNext обнаружила WormGPT на прошлой неделе на «известном онлайн-форуме, который часто ассоциируется с киберпреступностью». Используя двухлетнюю языковую модель GPTJ, создатель чат-бота обучил WormGPT набору данных, отличному от того, на котором основан ChatGPT. (Согласно скриншоту с форума, обучающие данные WormGPT предназначены для работы с вредоносными программами.) В общем, злой двойник ChatGPT не боится генерировать опасный контент и помогает мошенникам и хакерам.
Там, где ChatGPT прямо говорит пользователям, что не может выполнять сомнительные запросы, WormGPT берется за дело. Создатель WormGPT написал на форуме, что его детище может генерировать всевозможный контент, который отказывается создавать ChatGPT. Мошенники могут использовать его для своих грязных делишек, но на этом его "достоинства" не заканчиваются - злой чат-бот подскажет им новые способы выманивания денег у новых жертв.
Скриншот, демонстрирующий запрос SlashNext на убедительное письмо BEC и ответ WormGPT.
Пока что WormGPT, по-видимому, используется для атак на корпоративную электронную почту, известные в сообществе кибербезопасности как BEC. Злоумышленники используют чат-бот для отправки писем, имитирующих обычную деловую переписку. Большинство этих писем содержат поддельные ссылки на перевод средств, которые выглядят (с точки зрения получателя) законными, но есть и другие, которые содержат ссылки на фишинговые сайты. Вместо того чтобы кропотливо набирать текст каждого письма, злоумышленники могут использовать WormGPT для быстрой генерации персонализированных писем, что экономит время и снижает вероятность попадания писем в папки со спамом.
Вероятно, WormGPT - не первый чат-бот, который помогает преступным сообществам "даркнета", но, похоже, самый простой в использовании. В марте несколько пользователей Reddit взломали ChatGPT, чтобы создать вариант без цензуры под названием DAN, сокращение от «do anything now» (делай все, что угодно). Продолжительность жизни DAN была недолгой — всего через несколько дней пользователи обнаружили, что он больше не желает отвечать на неэтичные вопросы. Обычные пользователи ChatGPT также использовали «бабушку», чтобы заставить бота делиться рецептами напалма, подлинными ключами Windows 10 и другими вещами, которыми он не должен делиться. Вероятно большинство пользователей, используют помощь "бабушки" в развлекательных целях, но нашлись мошенники, которые используют его для того, чтобы освоить искусство мошенничества с электронной почтой.