Институт будущего жизни (Future of Life Institute) недавно опубликовал статью с призывом немедленно приостановить обучение систем искусственного интеллекта. Минимальный срок остановки составил 6 месяцев. Этот призыв был связан с тем, что потенциал ИИ может создавать непредвиденные риски для общества и окружающей среды. В статье говорится о необходимости более вдумчивого и продуманного подхода к разработке систем искусственного интеллекта, чтобы исследователи и промышленность могли избежать непредвиденных последствий, которые могут иметь катастрофические последствия.
Маловероятно, что известные исследовательские организации в области ИИ прислушаются к Институту и немедленно приостановят обучение. Основная причина - неизбежное отставание от своих конкурентов. Исследования ИИ — это невероятно конкурентная область, и любое время, потерянное в разработке, может означать разницу между успехом и неудачей. Кроме того, некоторые организации могут не захотеть рисковать и инвестировать во временную паузу в разработке, поскольку потенциальные преимущества ИИ слишком велики, чтобы их можно было игнорировать.
Открытое письмо Института было подписано многими людьми и организациями в области искусственного интеллекта и технологий. Сюда входят такие известные исследователи, как Йошуа Бенджио и Стюарт Рассел , технологические лидеры, такие как Илон Маск. Эти высокопоставленные лица, подписавшие соглашение, подчеркивают безотлагательность ситуации и важность уделить время обеспечению ответственной и этической разработки ИИ. Есть надежда, что эти подписанты помогут распространить информацию о рисках, связанных с ИИ, и побудят другие организации принять меры.
Вы можете прочитать статью по адресу. Ссылка - здесь вы можете найти что-то полезное для себя и для своего бизнеса.
«Системы искусственного интеллекта с конкурентным интеллектом могут представлять серьезную угрозу для общества и человечества, как показали обширные исследования и признаны ведущими лабораториями искусственного интеллекта. Как указано в широко одобренных Принципах ИИ Асиломара - https://futureoflife.org/open-letter/ai-principles, продвинутый ИИ может представлять собой глубокие изменения в истории жизни на Земле, и его следует планировать и управлять им с учетом соразмерный уход и ресурсы. К сожалению, такого уровня планирования и управления не происходит, хотя в последние месяцы лаборатории искусственного интеллекта оказались вовлечены в неконтролируемую гонку по разработке и внедрению все более мощных цифровых умов, которые никто – даже их создатели – не может понять. прогнозировать или надежно контролировать.»
Читайте далее....