6222 подписчика
Илон Маск и 1000 специалистов в области IT говорят, что нужно остановить внедрение систем с искусственным интеллектом.
Группа исследователей и эксперт в области ИИ призвали мир к приостановке внедрения самообучающихся систем с искусственным интеллектом. Илон Маск входит в их число.
Эксперты считают, что необходимо остановить работы над ИИ до того момента, пока не будут разработаны протоколы безопасности и критерии использования «умных» алгоритмов.
Организация «Институт будущего жизни» опубликовала открытое письмо, в котором говорится:
"Высокопроизводительные системы искусственного интеллекта не должны разрабатываться до тех пор, пока мы не будем уверены, что их влияние будет положительным, а их риски управляемыми».
Последствия быстрого внедрения ИИ в жизнь чреваты катастрофическими последствиями и для экономики, и для физического существования людей. И понятно, почему эксперты так озаботились.
В прошлом году, произошел скачок в использовании этих систем и началась какая-то сумасшедшая гонка разработчиков. Но если бы дело ограничилось только научными исследованиями и школьными экзаменами…
Происходит то, чего так боялись фантасты прошлого. То, что сейчас так гордо называется искусственным интеллектом, уже внедряется в финансовые системы, встраивается в банковские и инвестиционные процессы, активно внедряется в оборонных и наступательных системах вооружений, в военном планировании, в производственных процессах.
Ученые считают, что недалеко то время, когда системы ИИ начнут воспроизводить сами себя и проектировать и создавать умные системы, что может привести к "интеллектуальному взрыву", который оставить человечество далеко позади. Это теоретически может избавить человечество от болезней и голода, но скорее всего приведет к его уничтожению. Это может произойти не из-за злобности ИИ. Ведь интеллекта тут нет и это очень условное название алгоритмов анализа массивов данных и формирования решений. Эти решения могут приниматься без участия человека и без учета его интересов. Фактор "безумного ученого", создающего алгоритм уничтожения всего живого становится пугающе реальным. Кроме злонамеренного создателя алгоритма уничтожения существует риск потери контроля над созданными высокопроизводительными системы, снабенными функциями самообучения. Риск моежт исходит даже не от самого ИИ, а от массивов данных, которые он анализирует и на основе чего "умный" алгоритм может принимать решения. Проблема в том, что наши современные знания ограничены и какие-то даже ошибочны. Теории, на которых строятся современные системы - финансовые, научные, социальные имеют огромное количество ошибок и пока антерпретацией данных занимаются разрозненные группы людей, существуют механизм сдерживания и балансировки. Внедрение же систем ИИ сделают любое решение, принятое на недостоверных данных, глобальным и разрушительным. И это будет происходить. особенно в сферах приносящих прибыль или обеспечивающих безопасность - то есть, в финансах, медицине и обороне. Именно тут и есть наибольшая вероятность сбоев и катастроф, причем глобальных.
И мир движется в эту сторону каком-то абсолютно безумном ритме. С конца 22 года в гонку вступили и ведущие компании мира, и группы энтузиастов. Microsoft, Google, Baidu активно участвуют в гонке, что вызывает обеспокоенность. Но еще большую обеспокоенность вызывают сообщения о том, что оборонные ведомства уже выделяют огромные средства на создание интегрированных с ИИ боевых систем, что банки и инвестиционные компании внедряют автономные "разумные" алгоритмы.
В гонке участвуют уже слишком много игроков. И это уже невозможно контролировать.
Эксперты считают, такое быстрое внедрение сырых технологий неминуемо приведет к катастрофам. Вопрос не в том, случится это или нет.
Вопрос в том - когда все начнется и в каких масштабах.
3 минуты
30 марта 2023
481 читали