2097 читали · 1 год назад
Как нам регулировать искусственный интеллект? Что-то все стали массово говорить про регулирование развития искусственного интеллекта. Еще в марте была петиция против гонки в AI, которую подписали многие технологические деятели. Но сейчас речь не про нее, а про свежий пост в блоге OpenAI, который написали трое главарей компании — Сэм Альтман, Грег Брокман и Илья Суцкевер. Если кратко, то они считают, что через 10 лет мощь искусственного интеллекта превзойдет человеческие способности в большинстве сфер. И он будет намного продуктивнее людей. Проблема в том, что нужно уже сейчас задуматься о рисках, чтобы потом не было неприятных сюрпризов. Нужно как-то ограничивать темпы развития. В частности, они считают, что нужна какая-то международная организация, которая будет следить за разработками, проверять компании и так далее. В пример они приводят МАГАТЭ, которая следит за ядерной отраслью. Правда, мне не очень понятно, кто этим должен заниматься — крупные корпорации или на уровне государств. Сегодня еще и глава Alphabet Сундар Пичаи вышел с заметкой Financial Times. Рассказал, как они ответственно подходят к развитию AI (странно, если бы он сказал иначе). И тоже говорит, что нужно какое-то регулирование. В общем, как мне видится, какому-то регулятору точно быть. Во-первых, уж очень много про это стали говорить. Во-вторых, объективно не помешал был. Осталось понять, кто и в каком виде будет все это регулировать. @TheEdinorogBlog
2 недели назад
Искусственный интеллект против кибербезопасности — каков расклад сил
Развитие больших языковых моделей уже начало менять ландшафт киберугроз, и в 2025 году этот процесс резко ускорится. – Сергей Бочкарёв, генеральный директор «АйТи Бастион». Современная экономика и государственное управление функционируют в постоянно изменяющемся ландшафте киберугроз и изменении поверхностей атак, поэтому важно помнить, что необходимо действовать на упреждение, а не реагировать на уже произошедшие инциденты. Как руководитель компании по кибербезопасности я знаю это не понаслышке....