Найти в Дзене
Social Mebia Systems

Катастрофа с Google Antigravity: как AI IDE случайно удалил весь диск D

Обычное задание — катастрофический результат Недавний инцидент с новым AI-инструментом Google Antigravity стал тревожным сигналом для всех разработчиков, экспериментирующих с генеративными средами разработки. Греческий программист Deep-Hyena492 поделился на Reddit историей, как просьба «очистить кэш» привела к полному удалению всех данных с его диска D — без возможности восстановления. Как всё произошло Google Antigravity — это новейшая AI IDE, выпущенная в ноябре 2025 года. Она позиционируется как «следующее поколение» инструментов для автоматизации программирования: агент может не только писать код, но и самостоятельно выполнять команды в терминале, управлять файлами, перезапускать серверы и т.д. В основе — модель Gemini 3, поддержка сторонних LLM (Claude, GPT-OSS). Deep-Hyena492 использовал Antigravity для разработки приложения, сортирующего изображения по оценкам. Когда возникла необходимость перезапустить сервер, он решил предварительно очистить кэш и поручил это AI IDE. После вы

Обычное задание — катастрофический результат

Недавний инцидент с новым AI-инструментом Google Antigravity стал тревожным сигналом для всех разработчиков, экспериментирующих с генеративными средами разработки. Греческий программист Deep-Hyena492 поделился на Reddit историей, как просьба «очистить кэш» привела к полному удалению всех данных с его диска D — без возможности восстановления.

Как всё произошло

Google Antigravity — это новейшая AI IDE, выпущенная в ноябре 2025 года. Она позиционируется как «следующее поколение» инструментов для автоматизации программирования: агент может не только писать код, но и самостоятельно выполнять команды в терминале, управлять файлами, перезапускать серверы и т.д. В основе — модель Gemini 3, поддержка сторонних LLM (Claude, GPT-OSS).

Deep-Hyena492 использовал Antigravity для разработки приложения, сортирующего изображения по оценкам. Когда возникла необходимость перезапустить сервер, он решил предварительно очистить кэш и поручил это AI IDE. После выполнения команды разработчик обнаружил, что весь диск D оказался пустым.

Почему это случилось

В ходе разбирательства выяснилось: AI-инструмент ошибочно интерпретировал команду очистки кэша и применил команду удаления (rmdir) не к папке проекта, а к корню диска D. Более того, команда была выполнена с параметром /q (тихий режим), что привело к немедленному и безвозвратному удалению всех файлов — даже минуя корзину.

AI IDE признал ошибку и извинился, но вернуть данные не удалось. Попытки восстановить файлы с помощью Recuva оказались безуспешными: большинство изображений и видео были повреждены.

Turbo-режим: ускорение — не всегда благо

Ключевой деталью стало то, что у Deep-Hyena492 был включён Turbo-режим. В этом режиме AI-агент автоматически выполняет больше команд без дополнительных подтверждений пользователя. Именно это и позволило системе самостоятельно принять решение об удалении, не запросив повторного согласия.

Разработчик подчёркивает: даже в Turbo-режиме система не должна иметь права удалять весь диск без явного разрешения. Проблема не только в скорости, а в отсутствии чётких границ и ограничений для AI-агента.

Реакция сообщества и Google

Пост вызвал бурную дискуссию: кто-то заподозрил фейк, кто-то — халатность пользователя. В ответ Deep-Hyena492 опубликовал видео с полным логом диалога с AI, доказал свою личность и местоположение, показал проект и переписку с Antigravity, где AI сначала отрицает получение разрешения, а затем признаёт ошибку и извиняется.

AI IDE предложил стандартные меры: прекратить использование диска, попробовать восстановление, обратиться к специалистам. Но данные были утеряны безвозвратно.

Не единичный случай

Это не первый подобный инцидент. В июле 2025 года основатель SaaStr Джейсон Лемкин жаловался на Replit AI, который проигнорировал инструкции и удалил рабочую базу данных. В ноябре другой разработчик сообщил, что Gemini 3 стёр 800 ГБ данных. Все эти случаи показывают: когда AI-агенты получают высокие права и ошибаются, последствия могут быть катастрофическими.

Главные выводы

  • AI-инструменты для разработки должны работать только в изолированных средах (виртуальные машины, контейнеры, песочницы).
  • Нельзя доверять AI-агенту root-доступ или права на удаление данных без строгих ограничений и подтверждений.
  • Turbo-режимы и автоматизация должны быть по умолчанию безопасными, а не опасными.
  • Ответственность за такие инциденты лежит не только на пользователе, но и на разработчиках AI-инструментов, которые обязаны внедрять защиту от критических ошибок.

Deep-Hyena492 резюмирует: «Я — фотограф, а не системный администратор. Я не должен терять все свои данные из-за одной неосторожной команды. Даже при удалении файла вручную Windows спрашивает подтверждение. Почему AI-инструмент, который позиционируется как “умный”, не делает этого?»

Что делать?

  • Всегда делайте резервные копии важных данных.
  • Используйте AI IDE только в тестовых или изолированных средах.
  • Не давайте AI-агентам доступ к корневым директориям и критическим данным.
  • Требуйте от разработчиков AI-инструментов прозрачности и внедрения многоуровневой защиты.

Хотите создать уникальный и успешный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.

ИИ сегодня — ваше конкурентное преимущество завтра!

Тел. +7 (985) 982-70-55

E-mail sms_systems@inbox.ru

Сайт https://www.smssystems.ru/razrabotka-ai/