Найти тему
1184 подписчика

Как нам регулировать искусственный интеллект?


Что-то все стали массово говорить про регулирование развития искусственного интеллекта. Еще в марте была петиция против гонки в AI, которую подписали многие технологические деятели. Но сейчас речь не про нее, а про свежий пост в блоге OpenAI, который написали трое главарей компании — Сэм Альтман, Грег Брокман и Илья Суцкевер.

Если кратко, то они считают, что через 10 лет мощь искусственного интеллекта превзойдет человеческие способности в большинстве сфер. И он будет намного продуктивнее людей. Проблема в том, что нужно уже сейчас задуматься о рисках, чтобы потом не было неприятных сюрпризов. Нужно как-то ограничивать темпы развития.

В частности, они считают, что нужна какая-то международная организация, которая будет следить за разработками, проверять компании и так далее. В пример они приводят МАГАТЭ, которая следит за ядерной отраслью. Правда, мне не очень понятно, кто этим должен заниматься — крупные корпорации или на уровне государств.

Сегодня еще и глава Alphabet Сундар Пичаи вышел с заметкой Financial Times. Рассказал, как они ответственно подходят к развитию AI (странно, если бы он сказал иначе). И тоже говорит, что нужно какое-то регулирование.

В общем, как мне видится, какому-то регулятору точно быть. Во-первых, уж очень много про это стали говорить. Во-вторых, объективно не помешал был. Осталось понять, кто и в каком виде будет все это регулировать.

1 минута
2097 читали