Найти в Дзене
Блохи в свитере

Anthropic разрешила своему ИИ Claude самостоятельно прерывать разговор с человеком, если он несёт опасные или оскорбительные интонации

Anthropic разрешила своему ИИ Claude самостоятельно прерывать разговор с человеком, если он несёт опасные или оскорбительные интонации. Например, если это касается контента сексуального характера с участием детей, информации для массового насилия и терроризма. Причём это делается не для защиты человека, а для "благополучия" самой модели, которая, впрочем, не обладает сознанием и не может быть реально травмирована. Однако компания уже сейчас внедряет меры, на случай, если подобное благополучие окажется возможным.

Anthropic разрешила своему ИИ Claude самостоятельно прерывать разговор с человеком, если он несёт опасные или оскорбительные интонации. Например, если это касается контента сексуального характера с участием детей, информации для массового насилия и терроризма.

Причём это делается не для защиты человека, а для "благополучия" самой модели, которая, впрочем, не обладает сознанием и не может быть реально травмирована. Однако компания уже сейчас внедряет меры, на случай, если подобное благополучие окажется возможным.