📌 中国のAI研究センターが同社の情報を盗んでいるというAnthropic社の主張に、オブザーバーは嘲笑している。
同社は、このような行為は輸出規制を弱体化させ、安全保障措置を危うくすると考えています。
Xネットワーク上の一部の批評家は、AIモデルの訓練プロセスに関する二重基準でAnthropicを非難している。
Anthropicは、中国の3つのAI研究所が、同社のシステムを訓練するために、同社のClaudeチャットボットから何百万もの応答を不正に流用していると非難しており、これは同社の利用規約に違反し、米国の輸出規制を弱めているとしている。
Anthropic社は、月曜日に発表したブログ記事で、AI開発者のDeepSeek、Moonshot、MiniMaxが、モデルの蒸留を通じてClaudeの能力を引き出すために「標的を絞った行動」を発見したと述べています。同社は、これらの研究所が約24,000の偽アカウントを使って1,600万以上の対話を生成したとしている。
Anthropic社の主張はX社に懐疑と嘲笑を巻き起こした。反対派は、クロードを含む基礎となるAIモデルの学習方法を考慮し、知的財産権、著作権、公正利用をめぐる現在進行中の幅広い論争を反映した同社の立場を疑問視した。
AIインフラ企業IO.Netの共同設立者であるTory Green氏は、「あなたはオープン・インターネットから学んだのに、他の人があなたから学んでいるときに、それを “蒸留攻撃 “と呼んでいる」と書いている。
“オープンな研究 “について話すのが好きな研究所が、突然オープンアクセスについて文句を言っている」。
他人の知的財産を使用する権利があるのはAnthropicだけだ。
Distillation(蒸留)とは、大きなモデルの出力に対して小さなモデルを学習させるAIの学習方法。
サイバーセキュリティでは、この用語はパターン・マイニング攻撃を指すこともあり、攻撃者が正規のアクセス権を使ってシステマティックにシステムに問い合わせを行い、その答えを適用して競合モデルを訓練する。
このようなキャンペーンはますます活発化し、洗練されてきている」とAnthropicは月曜日に指摘した。
対応時間は短く、脅威は単一の組織や地域を超えている。すべての業界関係者、法律家、グローバルなAIコミュニティによる迅速かつ協調的な行動が必要になる」。
AnthropicはXの別の投稿で、「蒸留は合法かもしれない:AIラボは顧客のために、より小型で手頃なモデルを作るためにそれを使っている」と付け加えた。しかし、米国のモデルを違法に借用する外国の研究所は、保護を回避して、そのモデルの能力を軍事、諜報、追跡システムに応用する可能性がある」。
6月、RedditはAnthropicを訴え、同社が10万件以上の投稿とコメントをコピーし、そのデータを使ってクロードを改良したとしている。