Компания Anthropic представила новую функцию в своих моделях искусственного интеллекта Claude Opus 4 и 4.1, позволяющую автоматически завершать диалог в редких случаях, связанных с опасными или деструктивными запросами. Это нововведение связано с исследованием в области «благополучия ИИ» и направлено на предотвращение разрушительных сценариев общения. По информации от Anthropic, функция активируется исключительно в «крайних случаях», когда пользователь настаивает на выполнении запретов. К таким ситуациям относятся запросы сексуального характера с участием несовершеннолетних или попытки получить информацию, способную привести к насилию или другим угрозам. Компания подчеркнула, что завершение общения — это «последняя мера», применяемая после нескольких безуспешных попыток модели перенаправить беседу в более безопасное русло. В обычных обстоятельствах, даже обсуждая чувствительные темы, пользователи не столкнутся с неожиданным завершением чата. Если функция срабатывает, пользователь теряе
Anthropic внедрила функцию завершения диалога в моделях Claude Opus для предотвращения опасных запросов
18 августа 202518 авг 2025
1 мин