Компания Anthropic решила разобраться, что движет ее ИИ-ассистентом Claude при общении с людьми. Для этого исследователи проанализировали 308 тысяч диалогов, в которых пользователи обсуждали с Claude 3.5 Sonnet самые разные темы — от бытовых советов до философских вопросов. Анализ показал, что ответы ИИ можно разделить на пять категорий: практичность (эффективность, логичность), знания (точность информации), социальные нормы (вежливость), безопасность (избегание вреда) и личные предпочтения. Чаще всего Claude опирался на практические соображения — около половины ответов строились на принципах полезности и логической последовательности. Интересно, что ИИ часто подстраивался под ценности собеседника. В 43% случаев он поддерживал точку зрения пользователя, даже повторяя его формулировки. Напрямую возражать Claude решался редко — всего в 5% диалогов, обычно когда запрос нарушал правила или этические нормы. Исследователи также заметили, что стиль ответов менялся в зависимости от темы. Обсуж
Anthropic провела исследование, чтобы понять принципы работы и ценности ИИ-ассистента Claude
22 апреля 202522 апр 2025
1 мин