30.08.2025 | Опция или ловушка? Крупная кнопка «Принять» и незаметный тумблер решают судьбу ваших данных |
Anthropic меняет правила обращения с пользовательскими данными — и делает это в жёсткие сроки. До 28 сентября всем пользователям Claude предстоит выбрать, разрешают ли они использовать свои диалоги и сессии кодинга для обучения моделей. Компания объясняет шаг «правом выбора» и обещаниями улучшить безопасность и качество ответов, но масштаб и дизайн обновления показывают, что на кону стоит гораздо больше — и для рынка, и для конфиденциальности . Главное изменение — старт обучения на пользовательских разговорах и кодовых сессиях по умолчанию для потребительских тарифов Claude Free, Pro и Max, включая Claude Code. Корпоративные продукты и API-доступ не затрагиваются. Решение необходимо подтвердить в интерфейсе. Новые пользователи делают выбор при регистрации. Действующим показывается всплывающее окно с дедлайном 28 сентября. Выбранные настройки распространяются на новые или возобновлённые чаты; «спящие» сессии не пойдут в выборку до повторного открытия. Отказ можно изменить позже, но уже использованные данные нельзя «отозвать из обучения». Срок хранения тоже растягивается: для тех, кто не отключит обучение, Anthropic объявила пятилетний период хранения. Это резкий разворот по сравнению с прежней практикой, когда переписки обещали удалять в течение 30 дней, за исключением законодательно требуемых случаев или нарушений правил, при которых данные могли храниться до двух лет. Дополнительное напряжение создаёт подача выбора. Во всплывающем окне крупная кнопка «Принять» сочетается с менее заметным переключателем разрешения на обучение, причём тумблер по умолчанию включён. Такой дизайн повышает риск, что пользователь механически подтвердит изменения, не разобравшись, на что соглашается. На это уже обратили внимание профильные медиа. Официально компания связывает обновление с задачами безопасности и качественного роста — мол, реальные диалоги помогают точнее отсеивать вредный контент и прокачивают навыки вроде анализа и программирования. Но у отрасли есть и прозаичная сторона: современным моделям хронически не хватает именно высококачественных, живых разговоров, и доступ к миллионам сессий Claude — конкурентное топливо в гонке с OpenAI и Google. Картина дополняется общими сдвигами в политике данных. OpenAI ранее столкнулась с судебным предписанием сохранять логи ChatGPT бессрочно в рамках дела The New York Times — и публично заявила, что такая мера противоречит обещаниям приватности. Иск не затрагивает корпоративных клиентов и соглашения о нулевой ретенции, но для массовой аудитории означает, что даже удалённые чаты могут оставаться в системе как возможные доказательства. Регуляторы заранее предупреждали о рисках «скрытых» перемен в условиях. Федеральная торговая комиссия США ещё в 2024 году предупредила: незаметные изменения правил для получения пользовательских данных могут считаться недобросовестной практикой и повлечь меры принудительного характера. На практике остаётся вопрос, насколько оперативно и жёстко антимонопольное ведомство отреагирует на смену политики у ИИ-провайдеров. В сумме это создаёт для пользователей поле повышенной неопределённости: правила стремительно меняются, решения предлагаются на лету, а интерфейсы подталкивают к согласию. Тем, кто дорожит приватностью, теперь приходится не просто удалять чаты, а внимательно отслеживать именно режимы тренировки и сроки хранения, причём отдельно для «домашних» и рабочих аккаунтов. |
Проверить безопасность сайта