Об этом пишут WSJ, и эта статья полностью разрушает маркетинговый миф о «безопасном» искусственном интеллекте. Ранее модель от Anthropic называли чуть ли не самой этичной. Компания Anthropic строила Claude как противоположность OpenAI. Они пытались наделить ИИ человеческими этическими принципами и безопасностью. Более того, в их манифесте говорилось, что цель компании — создать машину, которая будет полезной и доброй. Моральная гибкость искусственного интеллекта оказалась подвластна сильнейшим мира сего. Мы, кстати, уже писали о похожих случаях, когда ИИ влиял на политические взгляды. @lobushkin
США использовали ИИ Claude во время операции по захвату Николаса Мадуро
15 февраля15 фев
~1 мин