Эксперты объяснили блокировку аккаунтов россиян в нейросети Claude

Claude официально недоступен в России, поэтому многие пользователи работают через VPN и зарубежные сервисы оплаты, что повышает риск автоматической блокировки аккаунтов

Angnaont / Shutterstock

Фото: Angnaont / Shutterstock

Входит в сюжеты
В этой статье

Нейросеть Claude американской компании Anthropic начала массово блокировать аккаунты пользователей из России. Ограничения затронули в том числе разработчиков и специалистов, использовавших сервис для рабочих задач. Эксперты в беседе с РБК связали происходящее с ужесточением антифрод-политики компании и санкционными ограничениями.

Председатель комиссии РОЦИТ по облачным технологиям, хостингу и информационной безопасности Михаил Шурыгин считает, что причины блокировок носят комплексный характер. Поскольку Claude официально недоступен в России, отмечает эксперт, многие пользователи регистрировались через VPN, иностранные номера, зарубежные карты и другие «серые» схемы регистрации. По его словам, для любой западной AI-платформы это уже выглядит как повышенный риск.

«Если человек месяцами работает через VPN с разными регионами, система антифрода в какой-то момент может посчитать такой аккаунт подозрительным или нарушающим правила платформы», — отметил Шурыгин.

Антифрод — это система автоматических проверок и технологий для выявления мошенничества и подозрительной активности в онлайн-сервисах. Такие системы анализируют IP-адреса, использование VPN, способы оплаты, поведение аккаунта и другие параметры, а при обнаружении риска могут ограничить доступ или заблокировать пользователя.

Он также добавил, что американские AI-компании обязаны соблюдать экспортные ограничения и санкционные требования США вне зависимости от того, из какой страны подключается пользователь. По словам эксперта, ситуация особенно болезненна для бизнеса, поскольку многие начали использовать Claude как полноценную рабочую среду и хранили внутри сервиса проектную документацию, исследования и аналитические материалы.

«Я бы сказал, что это еще один сигнал для российского рынка: критически важные AI-инструменты и рабочие процессы опасно строить на сервисах, которые официально недоступны в стране и могут быть отключены в любой момент без объяснения причин», — заключил он.

Claude — это чат-бот с искусственным интеллектом. Он был создан Anthropic AI. Этот стартап в 2021 году основали брат и сестра Дарио и Даниэла Амодеи — бывшие вице-президенты OpenAI. Claude стал особенно популярен у IT-компаний: его часто использовали как инструмент вайб-кодинга и управления IT-проектами.

С мнением о массовом усилении антифрод-механизмов Anthropic согласен и директор по развитию разработчика платформы Kodik компании «Архитех ИИ» Юрий Головко. По его словам, первые массовые жалобы на блокировки начали появляться еще в феврале–марте 2026 года, после того как Anthropic сообщила о борьбе со схемами злоупотребления сервисом через тысячи фальшивых аккаунтов и прокси-инфраструктуру. Он считает, что с высокой вероятностью текущая волна блокировок затронула прежде всего продвинутых пользователей.

«Для антифрод-систем такие аккаунты выглядят рискованно: постоянная смена IP и регионов, массовые однотипные регистрации, нестандартные способы оплаты и перепродажа доступов автоматически повышают вероятность блокировки», — пояснил Головко.

По его словам, сложившаяся ситуация максимально влияет на рынок разработки: AI-инструменты перестали быть просто «сервисами» и стали инфраструктурой. На этом фоне российские компании начинают активнее переходить на локальные решения и легальные платформы, которые не зависят от зарубежных ограничений.

«Когда вся разработка завязана на один внешний сервис, любое изменение политики доступа автоматически становится инфраструктурным риском. Поэтому рынок постепенно смещается в сторону мультимодельных ИИ-сред разработки, где компания сама контролирует, какие модели использовать и как выстраивать работу вокруг них», — считает Головко.

Эксперт в области AI Александр Бирюков, в свою очередь, считает некорректным тезис о том, что блокировки касаются исключительно пользователей из России. По его словам, аналогичные жалобы появляются и в англоязычном сегменте интернета, а под ограничения попадали даже известные разработчики. «Компания в первую очередь борется с проблемой использования AI для фрода», — объяснил Бирюков.

Кроме того, по его словам, Anthropic пытается противодействовать так называемой дистилляции моделей — практике, при которой другие разработчики обучают собственные ИИ-системы на ответах Claude.

Директор по развитию технологий искусственного интеллекта в группе «Т-Технологии» Алексей Шпильман также связывает происходящее с политикой Anthropic в отношении неподдерживаемых регионов. Он напомнил, что компания уже ужесточала ограничения для пользователей из стран, которые США считают недружественными. По его словам, каждый раз с появлением нового метода обнаружения нежелательных пользователей будут новые волны отключений аккаунтов.

«Это естественный процесс. Пользователям стоит чаще делать бэкапы в хранилищах, не зависящих от Anthropic», — считает Шпильман.

Директор по экспериментальным продуктам MWS AI (входит в MTS Web Services) Сергей Пономаренко сообщил РБК, что в компании также фиксируют случаи блокировок российских пользователей Claude, но это «не что-то новое».

«Россияне и российские компании должны быть готовы к тому, что могут потерять доступ в любой момент. С технологической точки зрения Anthropic применяет проверки на уровне IP, поэтому ограничения могут вводиться волнами», — предупредил эксперт, добавив, что под ограничения в основном подпадают крупные проекты и корпоративные пользователи.

Пономаренко также обратил внимание, что, согласно политике конфиденциальности Anthropic, компания сохраняет доступ к пользовательским диалогам в облачных продуктах. Полную безопасность данных, по его словам, может обеспечить только использование моделей в закрытом контуре организации.

Эксперт по информационным технологиям Павел Мясоедов считает, что ограничения вокруг отдельных AI-сервисов пока скорее являются «элементами политической турбулентности», чем признаком полноценного технологического разделения мира. Однако вероятность полноценной изоляции крайне мала, потому что логика развития ИИ-моделей требует постоянного расширения аудитории и доступа к новым массивам данных, добавил он.

«Для ИИ-компаний потеря целого региона означает потерю огромного объема данных и пользовательской аналитики, необходимых для дальнейшего развития. Поэтому, на мой взгляд, то, что мы наблюдаем сейчас, <...> — это скорее точечные перегибы», — отметил он.

Американская компания Anthropic известна более жестким подходом к вопросам безопасности и контроля использования ИИ по сравнению с конкурентами. Компания неоднократно заявляла о необходимости ограничивать применение нейросетей в мошеннических схемах, киберпреступности и военных целях.

В августе 2025 года Anthropic выпустила отчет об угрозах, связанных с использованием Claude в киберпреступности. Компания заявила, что мошенники и хакеры начали применять ИИ не только для советов, но и для проведения реальных атак. Также Anthropic сообщила о выявлении схемы, в рамках которой северокорейские IT-специалисты с помощью ИИ устраивались на удаленную работу в американские компании под поддельными личностями. После этого компания усилила антифрод-системы, автоматические проверки аккаунтов и методы выявления подозрительной активности.

Ранее The Wall Street Journal писала, что модель искусственного интеллекта Claude Mythos, способная находить уязвимости в программном обеспечении, вызвала хаос в администрации президента США Дональда Трампа. В Белом доме считают, что платформа угрожает парализовать работу небольших банков, больниц и водоочистных сооружений, поскольку инициирует кибератаки, с которыми местные органы власти не готовы справляться.

Оставайтесь на связи с РБК в «Максе».