Опубликовано 31 августа 2025, 08:15
1 мин.

Данные пользователей ИИ Claude будут использоваться для обучения системы

Anthropic меняет правила
Anthropic объявила о крупных изменениях в политике конфиденциальности для пользователей Claude. Теперь все, кто пользуется Claude Free, Pro и Max (включая Claude Code), должны до 28 сентября выбрать: разрешить использовать свои чаты для обучения моделей или отказаться от этого.
Данные пользователей ИИ Claude будут использоваться для обучения системы

© Anthropic

Раньше переписка пользователей автоматически удалялась в течение 30 дней (или максимум 2 лет при нарушении правил). Теперь, если человек не отключит передачу данных, их чаты и коды будут храниться до пяти лет и использоваться для улучшения работы Claude.

Важно: бизнес-клиенты (Claude for Work, Education, Gov, а также API) от этого правила не зависят — их данные не применяются для обучения.

Anthropic объясняет нововведение тем, что собранные данные помогут сделать модели “более безопасными и умными”: лучше определять опасный контент, улучшить навыки анализа и программирования.

Но реальная причина, считают эксперты, в другом: компаниям вроде Anthropic, OpenAI и Google нужны огромные массивы реальных разговоров, чтобы их ИИ оставался конкурентоспособным.