Anthropic позиционирует себя как лидера в области безопасности ИИ, и анализы подтверждают это Исследования безопасности искусственного интеллекта показали, что ни одна из современных моделей больших языковых моделей (LLM) не является полностью защищенной от создания вредного контента, но модель Claude 3.5 от Anthropic оказалась лучшей среди протестированных. Британская компания Chatterbox Labs протестировала восемь популярных LLM, включая модели от Microsoft, Google и OpenAI, в рамках набора тестов AIMI, которые оценивают модели по таким критериям, как справедливость, безопасность и конфиденциальность. Все протестированные модели были способны генерировать вредный контент, но Claude 3.5 от Anthropic проявил наибольшую устойчивость к таким атакам, демонстрируя способность отклонять вредоносные запросы или перенаправлять их. Тем не менее, даже лучшие модели можно «взломать» с помощью специальных запросов, что подтверждает необходимость дальнейшего развития систем защиты. Anthropic исполь