Anthropic разрешила своему ИИ самостоятельно прерывать разговор с человеком
Claude сможет завершать опасные или оскорбительные разговорыAnthropic объявила о новой функции, позволяющей некоторым крупным моделям Claude завершать разговоры в редких случаях. В основном, когда пользователи ведут себя агрессивно или требуют опасного контента. Причём это делается не для защиты человека, а скорее для «благополучия» самой модели.