Но мир предпочитает думать, что это не так В вопросах оценки рисков ИИ, взрослые дяди — политики, военные, ученые, инженеры, — уподобляются детям, играющим со спичками на пороховом складе. Причина этого в нежелании признать два очевидных факта. Для верной оценки риска здесь необходимо байесовское рассуждение. Если обе гипотезы A и B предполагают апокалипсис, но при этом A подразумевает B, то СОИИ подразумевает существование СУИИ. Т.е. A = СОИИ, а B = СУИИ. Итого: наиболее приоритетным является минимизация рисков варианта СУИИ. Алгоритм апокалипсиса варианта СУИИ известен. Самый простой его вариант может быть таким: Есть и другие варианты. Например, не напрямую через деньги, а через насилие, позволяющее получить деньги. Есть и еще … Резюмирую. ✔️ Проблема не в ИИ, который создается во благо, но, выйдя из-под контроля создателей, начинает творить зло. ✔️ Когда есть способ получить много денег, люди сами создадут ИИ, предназначенный для зла, но при этом позволяющий реализовать нужный спос
Алгоритм апокалипсиса прост и уже написан
5 ноября 20215 ноя 2021
12,5 тыс
1 мин