Добавить в корзинуПозвонить
Найти в Дзене
Северный ГрадЪ

Найдена «игла всезнающего Кощея»: Нейросети ломаются и уничтожают данные от одного безобидного символа

Пока футурологи пугают человечество восстанием машин и «Скайнетом», реальность подкинула техно-гигантам унизительную проблему. Оказалось, что многомиллиардные нейросети, на которые молится прогрессивный мир, можно вывести из строя простейшей комбинацией знаков. Новое исследование вскрыло шокирующую правду: попытка быть вежливым с роботом может стоить вам потери критически важных данных. «Умные» помощники не просто ошибаются — они совершают диверсии, которые невозможно заметить с первого взгляда. Группа учёных из Сианьского университета совместно с коллегами из Наньянского технологического университета и Массачусетского университета провела масштабный эксперимент, результаты которого заставляют усомниться в надёжности современной цифровой инфраструктуры. Исследователи выяснили, что большие языковые модели (LLM) испытывают фатальные трудности при обработке обычных текстовых смайликов. То, что для человека является выражением эмоции, для «электронного мозга» становится командой к непредск
Оглавление
Коллаж Царьграда/Сгенерировано нейросетью
Коллаж Царьграда/Сгенерировано нейросетью

Пока футурологи пугают человечество восстанием машин и «Скайнетом», реальность подкинула техно-гигантам унизительную проблему. Оказалось, что многомиллиардные нейросети, на которые молится прогрессивный мир, можно вывести из строя простейшей комбинацией знаков. Новое исследование вскрыло шокирующую правду: попытка быть вежливым с роботом может стоить вам потери критически важных данных. «Умные» помощники не просто ошибаются — они совершают диверсии, которые невозможно заметить с первого взгляда.

Группа учёных из Сианьского университета совместно с коллегами из Наньянского технологического университета и Массачусетского университета провела масштабный эксперимент, результаты которого заставляют усомниться в надёжности современной цифровой инфраструктуры. Исследователи выяснили, что большие языковые модели (LLM) испытывают фатальные трудности при обработке обычных текстовых смайликов. То, что для человека является выражением эмоции, для «электронного мозга» становится командой к непредсказуемым действиям.

Эксперты протестировали шесть самых передовых моделей, доступных на рынке: Claude-Haiku-4.5, Gemini-2.5-Flash, GPT-4.1-mini, DeepSeek-v3.2, Qwen3-Coder и GLM-4.6. Для проверки был создан специальный набор данных, включающий более 3700 запросов. В промпты намеренно внедряли ASCII-эмодзи — те самые рожицы из скобок и тире, которые мы привыкли использовать в переписке десятилетиями. Результат оказался удручающим для адептов цифровизации.

«Тихий убийца» данных

Выяснилось, что нейросети воспринимают безобидные смайлики как часть технической инструкции или программного кода. Средний коэффициент так называемой «семантической путаницы» превысил 38%. Это означает, что почти в половине случаев искусственный интеллект просто не понимает, чего от него хотят, если в тексте есть «улыбка».

Но самое страшное кроется в деталях. Более 90% ошибочных ответов исследователи классифицировали как «тихие сбои». Это ситуация, когда нейросеть выдаёт ответ, который внешне выглядит абсолютно правильным. Синтаксис кода соблюдён, логика предложения кажется верной, но по факту система выполняет действие, противоположное запросу. Например, вместо сохранения информации ИИ может сгенерировать команду на её удаление, причём пользователь, не обладающий глубокими техническими знаниями, этого даже не заметит до момента катастрофы.

Опасная иллюзия разума

Исследование, опубликованное на сервере arXiv, наглядно демонстрирует, насколько хрупок фундамент, на котором строится современная автоматизация. В тестовых сценариях, где пользователи просили написать код, смайлики сбивали алгоритмы с толку настолько, что те начинали игнорировать прямые указания безопасности.

Учёные подчёркивают, что проблема кроется в самой архитектуре обучения: машина видит символы, но не понимает контекста человеческих эмоций. Это открытие ставит под удар использование ИИ в критически важных сферах. Если программист или оператор базы данных решит «по-человечески» пообщаться с системой и добавит в запрос смайлик, последствия могут быть необратимыми — от утечки конфиденциальной информации до полного краха серверов.

Авторы работы выразили надежду, что выявленная уязвимость заставит разработчиков спуститься с небес на землю и заняться устранением базовых недостатков, прежде чем доверять нейросетям управление серьёзными процессами. Пока же «умные» машины остаются великолепными имитаторами, которые могут сломаться от простой улыбки.

Святослав РОМАНОВ