Найти в Дзене
Apple SPb Event

«Лаборатория Касперского»: нейросети выдают использующих их мошенников

Специалисты по информационной безопасности «Лаборатории Касперского» провели исследование обнаруженных экспертами фишинговых и мошеннических сайтов. По результатам проведённого анализа выяснилось, что есть определённые артефакты, которые оставляют после себя практически все популярные большие языковые модели, если злоумышленники их используют в преступных целях. По словам аналитиков, речь в этом случае идёт о признаках, указывающих на то, что конкретный поддельный сайт был создан мошенниками с применением ИИ-инструментов.

В «Лаборатории Касперского» рассказали, что наличие таких маркеров объясняется в первую очередь развитием защитных механизмов у современных больших языковых моделей. Помимо этого, подобные маркеры проявляются из-за автоматизации процессов разработки фишинговых сайтов и относительно невысокого уровня технических навыков у многих современных злоумышленников.

Специалисты по кибербезопасности указывают на то, что на фейковых ресурсах часто в текстовом контенте встречаются фразы о том, что конкретная нейросеть «не может выполнить тот или иной запрос». Это связано с тем, что мошенники редко проверяют созданные искусственным интеллектом текстовые данные, в результате чего в самом тексте на сайте присутствует явный маркер того, что для создания контента применялась нейросеть.

-2

Кроме того, большие языковые модели отдают предпочтение тем или иным словам или выражениям. Например, модели от компании OpenAI часто используют в своих текстах слово dive (переводится как «погружаться», «вникать во что-то»). В созданных большими языковыми моделями текстах также часто применяются стандартные конструкции, к примеру, in the ever-evolving/ever-changing world/landscape («в меняющемся/развивающемся мире/ландшафте»).

При этом эксперты «Лаборатории Касперского» заявляют, что артефакты, указывающие на применение искусственного интеллекта, могут присутствовать не только в тексте на сайте, но и в элементах кода и мета-тегах. В самом коде также часто имеются характерные фразы с извинениями от ИИ-модели о том, что она не может выполнить тот или иной запрос.

-3

Владислав Тушканов, глава группы исследований и разработки технологий машинного обучения «Лаборатории Касперского», заявил по результатам проведённого исследования, что злоумышленники активно используют в последние несколько лет большие языковые модели в разных сценариях автоматизации. Но при проведении анализа определённых киберпреступных атак можно выяснить, что это приводит к тому, что злоумышленники допускают массу ошибок.

Эксперт, вместе с этим, признаёт, что подход, базирующийся на определении фейковой страницы по наличию определённых маркеров больших языковых моделей, нельзя считать на сегодняшний день надёжным. В связи с этим пользователям рекомендуется максимально внимательно и бдительно относиться к любому контенту в интернете, обращая внимание на сомнительные признаки, например на ошибки в логике повествования или постоянные опечатки.

Ещё по теме: