Найти тему

Ограничить гигантские эксперименты с искусственным интеллектом: открытое обращение к Open Ai - Chat GPT 😱

Открытое письмо на угрозу со стороны ИИ . Chat GPT4
Открытое письмо на угрозу со стороны ИИ . Chat GPT4


Мы призываем лаборатории искусственного интеллекта немедленно приостановить обучение систем искусственного интеллекта, более мощных, чем GPT-4. Системы искусственного интеллекта с конкурентоспособным человеком интеллектом могут представлять глубокие риски для общества и человечества, о чем свидетельствуют обширные исследования[1] и признанные ведущими лабораториями ИИ.

[ 2] Как указано в широко одобренных принципах Асиломарского ИИ, продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле и должен планироваться и управляться с соразмерной заботой и ресурсами. К сожалению, такого уровня планирования и управления не происходит, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта были заперты в неконтролируемой гонке по разработке и развертыванию все более мощных цифровых умов, которые никто - даже их создатели - не может понять, предсказать или надежно контролировать.

Современные системы искусственного интеллекта в настоящее время становятся конкурентоспособными человеком в решении общих задач[3], и мы должны спросить себя: должны ли мы позволить машинам наводнить наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, включая выполненные? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти число, перехитрить, устареть и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным техническим лидерам. Мощные системы искусственного интеллекта должны разрабатываться только тогда, когда мы будем уверены, что их эффект будет положительным, а их риски будут управляемыми. Эта уверенность должна быть хорошо оправдана и увеличиваться с масштабами потенциальных эффектов системы.

В недавней заявке OpenAI относительно общего искусственного интеллекта говорится, что «в какой-то момент может быть важно получить независимый обзор, прежде чем приступать к обучению будущих систем, и для самых передовых усилий согласиться ограничить темпы роста вычислений, используемых для создания новых моделей». Мы согласны. Это сейчас.
Поэтому мы призываем все лаборатории искусственного интеллекта немедленно приостановить обучение систем искусственного интеллекта более мощных, чем GPT-4. , правительства должны вмешаться и ввести мораторий.

Лаборатории ИИ и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для передового проектирования и разработки ИИ, которые тщательно проверяются и контролируются независимыми внешними экспертами. Эти протоколы должны обеспечить безопасность систем, придерживающихся к ним, вне всяких разумных сомнений.[ 4] Это не означает паузу в разработке ИИ в целом, а просто шаг назад от опасной гонки к все более крупным непредсказуемым моделям черного ящика с новыми возможностями.

Если вам понравилось так же переходите в наш телеграмм канал От противного ! Подписывайтесь будет много нового и ценного материалы их мира науки и технологий . ✊

[1] Примечания к статье и ссылки на исследования

Человек в куполе .
Человек в куполе .

Бендер, Э. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, март).Об опасностях Стохастических попугаев: могут ли языковые модели быть слишком большими? 🦜. В материалах конференции ACM 2021 года по справедливости, подотчетности и прозрачности (стр. 610-623)

Бостром, Н. (2016). Суперинтеллект. Издательство Оксфордского университета.

Бакналл, Б. С. и Дори-Хакоэн, С. (2022, июль).Текущий и краткосрочный ИИ как потенциальный экзистенциальный фактор риска.В материалах конференции AAAI/ACM 2022 года по ИИ, этике и обществу (стр. 119-129).

Карлсмит, Дж. (2022).Является ли ИИ, ищущий силу, экзистенциальным риском? arXiv препринт arXiv:2206.13353.

Кристиан, Б. (2020). Проблема выравнивания: машинное обучение и человеческие ценности. Norton & Company.

Коэн, М. и др. (2022).Продвинутые искусственные агенты вмешиваться в предоставление вознаграждения. Журнал AI, 43(3) (стр. 282-293).

Элунду, Т. и др. (2023).GPT - это GPT: ранний взгляд на потенциал влияния на рынок труда крупных языковых моделей.

Хендрикс, Д. и Мазейка, М. (2022).X-рисковый анализ для исследований ИИ. arXiv препринт arXiv:2206.05862.

Нго, Р. (2022).Проблема выравнивания с точки зрения глубокого обучения. arXiv препринт arXiv:2209.00626.

Рассел, С. (2019). Совместимость с человеком: искусственный интеллект и проблема контроля. Викинг.

Тегмарк, М. (2017). Жизнь 3.0: Быть человеком в эпоху искусственного интеллекта. Кнопф.

Вайдингер, Л. и др. (2021).Этические и социальные риски вреда от языковых моделей. arXiv препринт arXiv:2112.04359.

[2]

Ордонес, В. и др. (2023, 16 марта).Генеральный директор OpenAI Сэм Альтман говорит, что ИИ перестройт общество, признает риски: "Немного боюсь этого". ABC News.

Перриго, Б. (2023, 12 января).Генеральный директор DeepMind Демис Хассабис настоятельно призывает к осторожности в отношении ИИ. Время.

[3]

Бубек, С. и др. (2023).Искры общего искусственного интеллекта: ранние эксперименты с GPT-4. arXiv:2303.12712.

OpenAI (2023).Технический отчет GPT-4. arXiv:2303.08774.

[4]

Существует широкий правовой прецедент - например, широко принятыйПринципы ИИ ОЭСР требуют, чтобы системы ИИ "функционировали надлежащим образом и не представляли необоснованного риска для безопасности".

[5]

Примеры включают клонирование человека, модификацию зародышев человека, исследование усиления функций и евгенику.

#исскусственный интелект #ИИ #чатгпт #нейронныесети