Добавить в корзинуПозвонить
Найти в Дзене
ITShaman

Cisco разработали защиту от ИИ, которая может предотвратить гибель человечества с вероятностью 99,999999%

Недавнеезаявление Cisco о защите ИИ было сделано в то время, как безопасность и конфиденциальность являются одними из основных проблем, стоящих на пути развития ИИ; потенциал того, что технология покончит с человечеством, остается главной проблемой для всех, включая регулирующие органы и правительство. В связи с этим нормативные акты и политика, регулирующие развитие генеративного ИИ, остаются в лучшем случае скудными, что делает шансы его схода с рельсов чрезвычайно высокими.

Недавнеезаявление Cisco о защите ИИ было сделано в то время, как безопасность и конфиденциальность являются одними из основных проблем, стоящих на пути развития ИИ; потенциал того, что технология покончит с человечеством, остается главной проблемой для всех, включая регулирующие органы и правительство. В связи с этим нормативные акты и политика, регулирующие развитие генеративного ИИ, остаются в лучшем случае скудными, что делает шансы его схода с рельсов чрезвычайно высокими.

Исследователь безопасности ИИ и директор Лаборатории кибербезопасности Университета Луисвилля Роман Ямпольский заявил, что вероятность того, что ИИ погубит человечество, составляет 99,999999 %, согласно p(doom), и единственный способ избежать этого – не создавать ИИ вообще. Интересно, что свет в конце тоннеля вроде бы есть.

AI Defense – это сложное решение для защиты разработки и использования приложений на базе ИИ, позволяющее предприятиям безопасно развивать ИИ.

В эксклюзивном интервью Ровану Чунгу (Rowan Cheung) из The Rundown AI исполнительный вице-президент и главный директор по продуктам Cisco Джиту Патель (Jeetu Patel) рассказал о стремительном развитии ИИ и проблемах безопасности и защиты, которые послужили причиной выпуска AI Defense:

«Реальность такова, что в будущем будет два типа компаний: те, кто лидирует с помощью ИИ, и те, кто не имеет к нему отношения. Каждая компания будет использовать – если не разрабатывать – тысячи приложений ИИ, и быстрые темпы развития инноваций в области ИИ опережают основные проблемы безопасности и защиты».

Мы разработали AI Defense для защиты как при разработке, так и при использовании приложений ИИ. В целом AI Defense защищает от неправомерного использования инструментов ИИ, утечки данных и все более изощренных угроз. Мы используем радикальный подход к решению проблем, с которыми не могут справиться существующие решения по безопасности».

AI Defense – это, пожалуй, самое близкое решение для обеспечения безопасности в условиях экзистенциальных угроз технологии. Что еще более тревожно, в отчете Cisco о готовности к использованию ИИ в 2024 году говорится, что только 29% опрошенных чувствуют себя полностью готовыми к обнаружению и предотвращению несанкционированного вмешательства в работу ИИ.

Это может быть связано с тем, что ландшафт ИИ относительно новый и сложный. Кроме того, приложения ИИ являются многомодельными и многооблачными, что делает их более восприимчивыми к атакам безопасности, поскольку они могут быть развернуты на уровне модели или приложения.

Будет ли Cisco следить за развитием AGI?

 📷
📷

Запуск решения для обеспечения безопасности пришелся как нельзя кстати, поскольку ведущие лаборатории искусственного интеллекта, включая Anthropic и OpenAI, борются за достижение заветной отметки AGI. Генеральный директор OpenAI Сэм Альтман заявил, что его команда знает, как создать AGI, и что эталон будет достигнут раньше, чем ожидалось, поскольку компания переключает внимание на суперинтеллект.

Несмотря на опасения по поводу безопасности и защиты, Альтман утверждает, что эталонная модель проскочит мимо, оказав на удивление малое влияние на общество. Он добавил, что выраженные опасения по поводу безопасности не будут заметны или ощутимы в момент появления AGI. Однако недавние сообщения указывают на то, что развитие ИИ может упереться в стену из-за нехватки высококачественного контента для обучения моделей. Ключевые игроки отрасли, включая Сэма Альтмана и бывшего генерального директора Google Эрика Шмидта, оспорили эти утверждения, заявив, что нет никаких доказательств того, что законы масштабирования начали тормозить развитие ИИ. «Никакой стены нет, – добавил Альтман.

Хотя AI Defense – это шаг в правильном направлении, его принятие в организациях и крупных лабораториях ИИ еще предстоит увидеть». Интересно, что генеральный директор OpenAI признает угрозу технологии для человечества, но верит, что ИИ будет достаточно умным, чтобы не допустить экзистенциальной гибели.

Подробнее