📌 Обозреватели иронизируют над утверждениями Anthropic о том, что китайские исследовательские центры ИИ похищают их сведения – расшифровка
– Anthropic заявляет, что три китайские ИИ-лаборатории в большом объеме вытягивали результаты Claude, используя фейковые учетные записи.
Компания считает, что такие действия подрывают экспортный контроль и ставят под угрозу гарантии безопасности.
Часть критиков в сети X упрекает Anthropic в двойных стандартах относительно процесса обучения ИИ-моделей.
Anthropic обвинила упомянутые три китайские лаборатории искусственного интеллекта в присвоении миллионов ответов от их чат-бота Claude для тренировки своих систем, что, по мнению компании, нарушает условия обслуживания и ослабляет экспортные ограничения США.
В своем блоге, опубликованном в понедельник, Anthropic сообщила, что обнаружила “целенаправленные действия” со стороны разработчиков ИИ DeepSeek, Moonshot и MiniMax по извлечению возможностей Claude через дистилляцию моделей. Компания утверждает, что эти лаборатории сгенерировали свыше 16 миллионов диалогов, пользуясь примерно 24 000 поддельными аккаунтами.
Заявление Anthropic вызвало скепсис и насмешки в X. Оппоненты подвергли сомнению позицию компании, учитывая то, каким образом тренируются основополагающие ИИ-модели, включая Claude, что отражает более широкие текущие споры о правах на интеллектуальную собственность, авторском праве и принципе добросовестного использования.
“Вы обучались на открытом интернете, а теперь называете это “атаками дистилляции”, когда другие учатся у вас”, написал Тори Грин, один из основателей IO.Net, компании, занимающейся ИИ-инфраструктурой. “Лаборатории, любящие рассуждать об “открытых исследованиях”, вдруг начинают жаловаться на открытый доступ”.
“О нет, только не мой приватный ИИ, как они посмели использовать его для обучения их модели, только Anthropic имеет право пользоваться чужой интеллектуальной собственностью, это недопустимо!” написал другой пользователь X.
Дистилляция это способ обучения ИИ, когда меньшая модель тренируется на выводах более крупной.
В сфере кибербезопасности этот термин также может относиться к атакам по извлечению моделей, когда злоумышленник использует законный доступ для систематического опрашивания системы, а затем применяет полученные ответы для обучения конкурирующей модели.
“Эти кампании становятся все более активными и изощренными”, отметила Anthropic в понедельник. “Времени на реагирование мало, а угроза выходит за рамки одной организации или региона. Для противодействия потребуются быстрые, скоординированные действия от всех участников отрасли, законодателей и мирового сообщества ИИ”.
“Дистилляция может быть законной: ИИ-лаборатории используют ее для создания более компактных и доступных моделей для своих клиентов”, добавила Anthropic в отдельном посте в X. Однако иностранные лаборатории, которые нелегально заимствуют американские модели, могут обойти защитные меры и применить возможности моделей в своих военных, разведывательных и системах слежения”.
В июне Reddit подал в суд на Anthropic, утверждая, что компания скопировала более 100 000 сообщений и комментариев, использовав эти данные для улучшения Claude.