Anthropic обвинила китайские компании в краже данных Claude

Компания выявила 24 тыс. фейковых аккаунтов и 16 млн обращений к модели.

Американский разработчик ИИ Anthropic заявил о масштабном неправомерном использовании своей модели Claude со стороны китайских компаний. Так, три игрока из КНР создали более 24 тыс. фиктивных аккаунтов и свыше 16 млн раз обращались к системе, чтобы извлекать данные для обучения собственных нейросетей, сообщает The Wall Street Journal.

Как утверждают в Anthropic, DeepSeek взаимодействовала с Claude около 150 тыс. раз, Moonshot — более 3,4 млн раз, а MiniMax — свыше 13 млн раз. В компании считают, что такие обращения использовались для так называемой «дистилляции» — метода, позволяющего на основе ответов более мощной модели ускоренно развивать собственные ИИ-продукты.

В Anthropic подчеркивают, что подобная практика выходит за рамки коммерческой конкуренции и затрагивает вопросы национальной безопасности США. По мнению компании, копирование американских моделей может привести к внедрению незащищенных ИИ-возможностей в военные, разведывательные и системы наблюдения за рубежом.

Ранее OpenAI обвинила DeepSeek в применении аналогичной практики для воспроизведения характеристик ее моделей. При этом сама технология, подчеркивают эксперты, имеет и легальные сценарии использования.

Ситуация развивается на фоне стремительного прогресса китайских ИИ-компаний. Moonshot и MiniMax недавно представили новые модели с улучшенными возможностями логического анализа и программирования, а DeepSeek готовит к релизу следующее поколение своей флагманской системы.

 

Источник

Подпишитесь на ежедневный дайджест от «Континента»

Эта рассылка с самыми интересными материалами с нашего сайта. Она приходит к вам на e-mail каждый день по утрам.

    5 1 голос
    Рейтинг статьи
    Подписаться
    Уведомить о
    guest
    0 комментариев
    Старые
    Новые Популярные
    Межтекстовые Отзывы
    Посмотреть все комментарии
    0
    Оставьте комментарий! Напишите, что думаете по поводу статьи.x