Найти тему
Finversia

Сергей Карелов: Риски искусственного интеллекта

Вопрос радикально снимается всего одним решением на уровне ООН.

Риск того - не знаю чего, сделать то – не знаю что.

Главный риск ИИ в непонимании людей, в чем он, и где он может стать критичным.

Не пропустите на выходных 1-й в мире материал, ставящий обсуждение важнейшей для человечества темы с головы на ноги. Я давно собирался про это написать, но в итоге, написал Хари Джонсон. И это даже лучше, поскольку риски ИИ - это его профильная тема.

Великий королевский астроном, мульти-академик, рыцарь-бакалавр и член Палаты лордов Мартин Рис предположил, что мы – единственная высокоразвитая цивилизация во Вселенной, т.к. все другие уже самоистребились. И то же самое ждет земную цивилизацию (и все цивилизации будущего). Ибо при достижении высокого технологического уровня, цивилизация подходит к порогу, после которого она не в состоянии справиться с экзистенциальными рисками, опережающими прогресс.

Скорее всего, главным источником таких рисков является ИИ. Люди уже догадались об этом и пытаются что-то предпринять. Разные государства идут разными путями.

• Китай решил поджать бизнес и университеты под КПК и тем самым сосредоточить контроль за развитием самых рисковых технологий в руках «самой мудрой и дальновидной силы».

• Забюрократизированная Европа решила идти по законодательному пути, пытаясь оградить развитие в области ИИ законодательными заборами и экономическими веригами для бизнеса (чтоб не сильно разбегался, куда не надо).

• США мечутся, пытаясь пройти между Сциллой и Харибдой двух названных подходов. Для 1-го у них нет своей КПК. Для 2-го – пока нет критической массы бюрократов (но это вовсю исправляется).

• Про Россию думайте сами, решайте сами. Но похоже, возможны оба варианта сразу.

Ну а теперь о главном - о чем написал Хари Джонсон.

Вот сухой остаток.

1. Чума на оба вышеназванных пути (взятие под госконтроль и регулирование).

Оба пути наденут смирительные рубашки на инновации, после чего вперед уйдут страны, не надевшие на себя такую спецодежду. Столкнувшись с этим, надевшие смирительные рубашки государства, их снимут. После чего мир дружно ускорит бег к обрыву пропасти имени Мартина Риса.

2. Невозможно запретить или даже просто ограничить ни цели использования ИИ, ни области его применения, ни перечень решаемых им задач. Чтобы долго не объяснять, возьмите пример с электричеством. И попробуйте подумать, как можно законодательно обложить его использование там, где это ведет к критическим рискам. Быстро поймете – никак.

3. Что такое критический риск, в контексте ИИ, совершенно не понятно. Ибо это зависит от того, на что ИИ будет способен:

- если он способен лишь переводить тексты, рисовать котиков и быть умной колонкой – то и говорить не о чем;

- а когда, например, «наш ИИ» планирования боевых операций превзойдет «их ИИ», - колоссальный риск появится, но предотвратить его можно, лишь не дав «своему ИИ» превзойти «их ИИ» (что исключено);

- ну и совсем плохая ситуация: представьте в метафоре электричества, что самым большим потенциальным риском его применения считается удар током (так вот с ИИ мы ровно в такой ситуации);

4. Разработчики новых ИИ на основе базисных моделей (киты БигТеха), провайдеры приложений / сервисов на их базе и «внедренцы» не смогут договориться. Они уже начали активно переваливать ответственность друг на друга. И ситуацию в целом по решению проблемы ответственности (кто виноват, когда случится плохое) будет куда труднее разрулить, чем, например, в локальной области самоуправляемых авто (где эта проблема пока не имеет универсального решения).

5. В силу перечисленного, видна лишь одна альтернатива:

- не придавливать госвластью разработчиков;

- не городить заборы законов и навешивать вериги на бизнес;

- а радикально решить вопрос всего одним решением на уровне ООН - срочное создание международной инфраструктуры общественных проектов базисных моделей ИИ, подобных космическому телескопу Хаббла и Большому адронному коллайдеру.

Скажите, кто про что, а вшивый про баню? И будете правы, - я опять о том же.

Ибо эта «баня» крайне важна для выживания наших внуков.

Ссылка на статью Хари с коменте.

Профиль автора в соцсети: https://www.facebook.com/sergey.karelov.5

Перейти на сайт Finversia.ru

Смотреть канал Finversia YouTube