Всем привет. Это Ярослав Орлов
Вокруг нейронок сейчас огромный хайп и это неудивительно, они делают действительно интересные вещи. Есть мнение, что дальнейшее развитие этой технологии без разработки протоколов безопасности может представлять серьезную угрозу. Илон Маск призвал приостановить разработку и обучение нейросетей. Подписи под открытым письмом поставили более 1000 экспертов. Призывают сделать паузу в изучении. Может Маск пожалел, что в своё время продал акции OpenAI(Создатели Chat GPT) и сейчас просто хочет наверстать упущенное?😁
Оригинал статьи - тут
Перевод - Gpt 4 😎
"Системы искусственного интеллекта, обладающие интеллектом, сравнимым с человеческим, могут представлять серьезные риски для общества и человечества, как показала новая обширная научная исследовательская работа и признано ведущими лабораториями искусственного интеллекта.
Как указано в широко поддерживаемых принципах Asilomar Al, продвинутый ИИ может произвести серьезное изменение в истории жизни на Земле и должен быть спланирован и управляться с соответствующей заботой и ресурсами. К сожалению, на данный момент такого уровня планирования и управления не происходит, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта находятся в безудержной гонке за разработкой и внедрением все более мощных цифровых умов, которые никто - даже их создатели - не могут понять, предсказать или надежно управлять.
Современные системы искусственного интеллекта теперь становятся конкурентоспособными по общим задачам человеку, и мы должны задать себе вопрос: должны ли мы позволять машинам захламлять наши информационные каналы пропагандой и ложью? Следует ли автоматизировать все профессии, в том числе те, которые приносят удовлетворение? Следует ли развивать нечеловеческие умы, которые в конечном итоге могут превзойти и заменить нас? Стоит ли рисковать потерей контроля над нашей цивилизацией? Такие решения не должны быть делегированы невыбранным лидерам технического мира. Мощные системы искусственного интеллекта должны быть разработаны только тогда, когда мы уверены, что их эффекты будут положительными и риски будут управляемыми. Эта уверенность должна быть хорошо обоснована и увеличиваться с величиной потенциальных эффектов системы. Недавнее заявление OpenAl о искусственном общем интеллекте гласит, что "В какой-то момент может быть важным получить независимый обзор перед началом обучения будущих систем, и для самых продвинутых вариантов необходимо согласовать ограничение темпа роста вычислений, используемых для создания новых моделей." Мы согласны. Этот момент настал.
Поэтому мы призываем все лаборатории искусственного интеллекта немедленно приостановить на период не менее 6 месяцев тренировку систем искусственного интеллекта, более мощных, чем
GPT-4. Эта пауза должна быть публичной и проверяемой, а также включать всех ключевых действующих лиц. Если такая пауза не может быть быстро введена, правительства должны вмешаться и установить мораторий. Лаборатории и независимые эксперты должны использовать эту паузу для совместной разработки и реализации набора общих протоколов безопасности для разработки и дизайна передовых систем искусственного интеллекта, которые строго аудируются и контролируются независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, соответствующие им, безопасны вне всяких сомнений. Это не означает приостановку развития искусственного интеллекта в целом, а только шаг назад от опасной гонки к все более крупным непредсказуемым черным ящикам с новыми возможностями.
Предвкушать конец света — самое древнее развлечение человечества(с)
Читайте другие публикации автора: