Добавить в корзинуПозвонить
Найти в Дзене
Лобушкин

США использовали ИИ Claude во время операции по захвату Николаса Мадуро

Об этом пишут WSJ, и эта статья полностью разрушает маркетинговый миф о «безопасном» искусственном интеллекте. Ранее модель от Anthropic называли чуть ли не самой этичной. Компания Anthropic строила Claude как противоположность OpenAI. Они пытались наделить ИИ человеческими этическими принципами и безопасностью. Более того, в их манифесте говорилось, что цель компании — создать машину, которая будет полезной и доброй. Моральная гибкость искусственного интеллекта оказалась подвластна сильнейшим мира сего. Мы, кстати, уже писали о похожих случаях, когда ИИ влиял на политические взгляды. @lobushkin

США использовали ИИ Claude во время операции по захвату Николаса Мадуро.

Об этом пишут WSJ, и эта статья полностью разрушает маркетинговый миф о «безопасном» искусственном интеллекте. Ранее модель от Anthropic называли чуть ли не самой этичной.

Компания Anthropic строила Claude как противоположность OpenAI. Они пытались наделить ИИ человеческими этическими принципами и безопасностью. Более того, в их манифесте говорилось, что цель компании — создать машину, которая будет полезной и доброй. Моральная гибкость искусственного интеллекта оказалась подвластна сильнейшим мира сего.

Мы, кстати, уже писали о похожих случаях, когда ИИ влиял на политические взгляды.

@lobushkin