Специалисты по работе с вирусами, атомщики и авиационные инженеры принимают строгие меры безопасности в своих областях. Теперь работники искусственного интеллекта задумываются: не стоит ли и им следовать этим высоким стандартам?
Что произошло?
Более десяти нынешних и бывших сотрудников OpenAI и DeepMind опубликовали открытое письмо, призывающее к большей прозрачности и безопасности в сфере ИИ. Они заявляют, что, несмотря на осведомленность компаний о возможностях их моделей, у них «слабые обязательства» по делиться этой информацией с правительствами и гражданским обществом.
Что они требуют:
- Прекращение соглашений о «унижении достоинства», которые запрещают бывшим сотрудникам критиковать компании.
- Анонимный процесс для сотрудников, чтобы сообщать о проблемах безопасности.
- Защита информаторов, готовых делиться информацией о возможных угрозах.
Кто поддержал?
Письмо поддержали выдающиеся ученые-компьютерщики, включая Джеффри Хинтона и Йошуа Бенджио, лауреатов премии Тьюринга 2018 года и признанных «крестными отцами глубокого обучения».
Контекст
Команда OpenAI по обеспечению безопасности была расформирована после ухода обоих ее руководителей в отставку в прошлом месяце. Компания создала новое подразделение по безопасности, но критики считают его не независимым, поскольку многие члены, включая генерального директора Сэма Альтмана, являются руководителями OpenAI.
Ответ OpenAI
OpenAI заявила, что приветствует участие своих сотрудников в «жестких дебатах» о безопасности ИИ и поощряет их делиться мнениями. Компания добавила, что уже реализовала некоторые изменения, например, анонимную горячую линию для сообщений о безопасности.
Еще больше интересной и полезной информации на нашем телеграм канале: Ai Сознание
Ваше мнение
Как вы считаете, стоит ли применять строгие меры безопасности к разработкам ИИ так же, как это делают в других отраслях? Делитесь своим мнением в комментариях!