Опубликовано 18 августа 2025, 17:15
1 мин.

Anthropic разрешила своему ИИ самостоятельно прерывать разговор с человеком

Claude сможет завершать опасные или оскорбительные разговоры
Anthropic объявила о новой функции, позволяющей некоторым крупным моделям Claude завершать разговоры в редких случаях. В основном, когда пользователи ведут себя агрессивно или требуют опасного контента. Причём это делается не для защиты человека, а скорее для «благополучия» самой модели.