Эксперты утверждают, что искусственный интеллект будет так же опасен, как пандемии и ядерная война, и что его необходимо строго контролировать. Институт Future of Life ранее опубликовал открытое письмо с предупреждением об опасности искусственного интеллекта, которое подписали более 1000 человек, включая Стива Возняка и Илона Маска. Это письмо касалось потенциальной опасности «вышедшего из-под контроля» развития систем ИИ. «Снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война». Теперь, в след за ним, Центр безопасности ИИ (CAIS) выпустил, по его словам, «лаконичное заявление», цель которого – «открыть дискуссию» о рисках развития искусственного интеллекта. «Эксперты по ИИ, журналисты, политики и общественность всё чаще обсуждают широкий спектр важных и неотложных рисков, связанных с ИИ», – говорится на сайте CAIS. «Несмотря на это, бывает трудно сформулировать озабоченность по поводу неко
Эксперты утверждают, что искусственный интеллект может привести человечество к вымиранию, если его не контролировать
31 мая 202331 мая 2023
2
2 мин