Найти в Дзене

Доверяем или проверяем? Почему слепая вера в нейросети может стоить вам дорого.

Искусственный интеллект прочно вошёл в нашу жизнь. Мы просим его написать текст, создать картинку, составить план. А что, если обратиться к нему за советом по здоровью, финансам или праву? Исследование «Лаборатории Касперского» показывает, что каждый десятый пользователь нейросетей готов полностью доверить им решение таких серьёзных вопросов. Но можно ли им верить на все сто и к чему это ведёт? Исследование «Лаборатории Касперского»*, проведённое летом 2025 года, выявило несколько тревожных и одновременно обнадёживающих тенденций в отношении людей к искусственному интеллекту: Главные страхи пользователей связаны с кражей данных (63%), получением недостоверной информации (60%) и потерей навыка самостоятельного принятия решений (54%). Если раньше нейросети были в основном «советчиками», то сегодня на смену ИИ-ассистентам приходят ИИ-агенты. Это принципиально новый этап. Такие агенты могут самостоятельно взаимодействовать с другими системами: заходить на сайты, работать с файлами на диске
Оглавление

Искусственный интеллект прочно вошёл в нашу жизнь. Мы просим его написать текст, создать картинку, составить план. А что, если обратиться к нему за советом по здоровью, финансам или праву? Исследование «Лаборатории Касперского» показывает, что каждый десятый пользователь нейросетей готов полностью доверить им решение таких серьёзных вопросов. Но можно ли им верить на все сто и к чему это ведёт?

Ключевые цифры доверия и рисков

Исследование «Лаборатории Касперского»*, проведённое летом 2025 года, выявило несколько тревожных и одновременно обнадёживающих тенденций в отношении людей к искусственному интеллекту:

  • Полное доверие критическим решениям: 10% пользователей нейросетей готовы безоговорочно следовать их советам в области медицины, финансов и юриспруденции.
  • Растущая осознанность: 67% опрошенных считают нейросети либо полностью, либо частично небезопасными.
  • Меры предосторожности: Подавляющее большинство (86%) хотя бы иногда соблюдают осторожность при общении с ИИ.

Главные страхи пользователей связаны с кражей данных (63%), получением недостоверной информации (60%) и потерей навыка самостоятельного принятия решений (54%).

Новый уровень угроз: эра ИИ-агентов

Если раньше нейросети были в основном «советчиками», то сегодня на смену ИИ-ассистентам приходят ИИ-агенты. Это принципиально новый этап. Такие агенты могут самостоятельно взаимодействовать с другими системами: заходить на сайты, работать с файлами на диске и даже совершать действия — от отправки письма до оплаты покупки.

«ИИ-агенты — это растущий тренд, в 2026 году они будут развиваться ещё активнее. Важно, чтобы и разработчики, и обычные пользователи знали о возможных рисках», — отмечает Владислав Тушканов, руководитель группы исследования технологий машинного обучения в «Лаборатории Касперского».

Эта автономность не только автоматизирует рутину, но и усугубляет старые риски (мошенничество, вредоносное ПО) и создаёт новые, такие как промпт-инъекции — злонамеренные команды, которые заставляют ИИ-агента действовать против воли пользователя.

Как безопасно использовать силу ИИ: 5 практических правил

Чтобы нейросети оставались вашими помощниками, а не источником проблем, стоит следовать нескольким простым, но критически важным правилам.

  1. Не доверяйте, а перепроверяйте. Это золотое правило. Любой важный совет, особенно касающийся здоровья, денег или законов, должен быть подтверждён из авторитетных источников: официальных сайтов госорганов, рецензируемых научных статей, консультаций с живыми экспертами.
  2. Защищайте свои данные. 63% сознательных пользователей уже следуют этому принципу. Никогда не делитесь с нейросетью паспортными данными, реквизитами банковских карт, паролями, детальной информацией о болезнях или конфиденциальными рабочими документами.
  3. Сохраняйте критическое мышление. Помните, что нейросеть не «думает» и не «понимает» в человеческом смысле. Она генерирует вероятностный ответ на основе данных, на которых обучалась. Эти данные могут быть устаревшими, предвзятыми или просто ошибочными.
  4. Осознайте риски ИИ-агентов. Перед тем как разрешить автономному агенту совершать действия от вашего имени (например, делать покупки), убедитесь, что понимаете, как он работает, и устанавливайте для него чёткие и безопасные границы.
  5. Используйте специализированные инструменты. Для решения сложных профессиональных задач ищите не универсальные чат-боты, а узкоспециализированные ИИ-инструменты, созданные для конкретной области (например, для анализа юридических документов или медицинских исследований), они часто имеют более точные и актуальные базы знаний.

Взгляд в будущее: что нас ждёт в 2026 году?

Тренд на углубление интеграции ИИ в повседневную жизнь необратим. ИИ-агенты станут умнее и распространённое. Однако параллельно с этим будет расти и киберугроза нового поколения. Атаки будут нацелены как на сами языковые модели, так и на пользователей, которые их применяют.

В 2026 году цифровая грамотность и осознанное отношение к технологиям перестанут быть просто полезным навыком, а станут необходимостью для безопасности. Развиваться должны не только технологии, но и системы защиты на их основе, а главное — наша способность задавать правильные вопросы и сохранять контроль над процессами, которые мы доверяем машинам.

Исследование «ИИ в жизни и на работе» проведено внутренним исследовательским центром «Лаборатории Касперского» летом 2025 года в крупных городах России. Всего опрошен 1001 человек: Статья тут.

Подписывайтесь на наш Telegram-канал