Данные пользователей ИИ Claude будут использоваться для обучения системы
Anthropic меняет правила© Anthropic
Раньше переписка пользователей автоматически удалялась в течение 30 дней (или максимум 2 лет при нарушении правил). Теперь, если человек не отключит передачу данных, их чаты и коды будут храниться до пяти лет и использоваться для улучшения работы Claude.
Важно: бизнес-клиенты (Claude for Work, Education, Gov, а также API) от этого правила не зависят — их данные не применяются для обучения.
Anthropic объясняет нововведение тем, что собранные данные помогут сделать модели “более безопасными и умными”: лучше определять опасный контент, улучшить навыки анализа и программирования.
Но реальная причина, считают эксперты, в другом: компаниям вроде Anthropic, OpenAI и Google нужны огромные массивы реальных разговоров, чтобы их ИИ оставался конкурентоспособным.