Найти тему
OVERCLOCKERS.RU

Ученые предлагают аварийный выключатель для искусственного интеллекта

В документе подготовленном группой экспертов из академических и промышленных кругов (включая лидера в области ИИ OpenAI), предлагаются несколько способов управления инфраструктурой ИИ.

Часто инженеры, проектирующие эти системы, не могут предсказать или объяснить, почему они демонстрируют определенное поведение. Есть опасения, что по мере того, как модели станут более сложными, будет гораздо труднее предотвратить неправильную работу ИИ. На правительственном уровне существует большой интерес к пониманию этих рисков, поскольку та же технология, которая позволяет обобщать веб-страницу, может использоваться для военных приложений, таких как разработка вредоносного ПО или оружия.

Google недавно анонсировала версию своего Gemini AI, которая может работать с миллионами токенов данных, и в отрасли есть планы увеличить их число до триллионов. Для этого потребуются огромные объемы вычислений ИИ - десятки или сотни тысяч графических процессоров или ускорителей ИИ (например Nvidia H100). В отчете говорится, что лучшая точка для сдерживания опасного ИИ находится на уровне чипов, отчасти потому, что аппаратное обеспечение производят всего несколько компаний: Nvidia, AMD и Intel. США уже используют этот факт, чтобы ограничить поставки оборудования искусственного интеллекта в Китай.

В отчете перечислено несколько конкретных действий, которые могли бы предпринять регулирующие органы, но отмечается, что не все они осуществимы и не лишены недостатков. Может существовать "аварийный выключатель" на аппаратном уровне, который позволит регулирующим органам проверять правильность работы ИИ и удаленно отключать его, если он начнет выходить из под конроля. Любая попытка модифицировать ускорители искусственного интеллекта для обхода регулирования также может привести к отключению чипа. Группа дополнительно предлагает добавить сопроцессоры к ускорителям, имеющим криптографический сертификат. Эта "лицензия" может потребовать периодических обновлений от регулирующего органа. Выход моделей из-под контроля может привести к отзыву лицензии во избежание злоупотреблений.

Технологический сектор, и в частности передовые разработки в области искусственного интеллекта, вероятно в целом устойчив к регулированию. Многие считают, что это будет препятствовать развитию этих потенциально революционных систем. Добавление аварийных переключателей к чипам может иметь непредвиденные последствия, например предоставляя хакерам интересную цель. Тем не менее аппаратное обеспечение - это то, чем мы можем управлять в то время, когда внутреннюю работу продвинутых моделей ИИ так трудно понять, а некоторым даже начать понимать.