Compass Investments

Crypto vs. Dollar

📌 Beobachter spotten über die Behauptungen von Anthropic, dass chinesische KI-Forschungszentren ihre Informationen stehlen – transcript

Anthropic behauptet, dass drei chinesische KI-Labors die Ergebnisse von Claude in großem Umfang über gefälschte Konten abgeschöpft haben. . Mining

– Anthropic behauptet, dass drei chinesische KI-Labors die Ergebnisse von Claude in großem Umfang über gefälschte Konten abgeschöpft haben.

Das Unternehmen ist der Ansicht, dass solche Aktionen die Exportkontrollen untergraben und die Sicherheitsvorkehrungen gefährden.

Einige Kritiker im X-Netzwerk haben Anthropic vorgeworfen, beim Training von KI-Modellen mit zweierlei Maß zu messen.

Anthropic hat die drei chinesischen KI-Labors beschuldigt, Millionen von Antworten seines Claude-Chatbots zu missbrauchen, um seine Systeme zu trainieren, was nach Ansicht des Unternehmens gegen seine Nutzungsbedingungen verstößt und die US-Exportbeschränkungen unterläuft.

In einem am Montag veröffentlichten Blogbeitrag erklärte Anthropic, es habe “gezielte Aktionen” der KI-Entwickler DeepSeek, Moonshot und MiniMax entdeckt, um die Fähigkeiten von Claude durch Modelldestillation zu extrahieren. Das Unternehmen behauptet, dass diese Labore über 16 Millionen Dialoge mit etwa 24.000 gefälschten Konten generiert haben.

Die Behauptung von Anthropic löste bei X Skepsis und Spott aus. Die Gegner stellten die Position des Unternehmens angesichts der Art und Weise, wie die zugrundeliegenden KI-Modelle, darunter auch Claude, trainiert werden, in Frage und spiegelten damit die allgemeinen anhaltenden Streitigkeiten über geistige Eigentumsrechte, Urheberrecht und faire Nutzung wider.

“Sie haben aus dem offenen Internet gelernt und nennen es jetzt

‘Destillationsangriffe

‘, wenn andere von Ihnen lernen, schrieb Tory Green, Mitbegründer von IO.Net, einem KI-Infrastrukturunternehmen. “Labore, die gerne über ‘offene Forschung’ sprechen, beschweren sich plötzlich über offenen Zugang.

Oh nein, nicht meine private KI, wie können sie es wagen, sie zum Trainieren ihres Modells zu verwenden, nur Anthropic hat das Recht, das geistige Eigentum anderer Leute zu verwenden, das ist inakzeptabel!, schrieb ein anderer X-Nutzer.

Destillation ist eine Methode zum Trainieren einer KI, bei der ein kleineres Modell auf der Grundlage eines größeren Modells trainiert wird.

Im Bereich der Cybersicherheit kann sich der Begriff auch auf Pattern-Mining-Angriffe beziehen, bei denen ein Angreifer einen legitimen Zugang nutzt, um ein System systematisch abzufragen und dann die Antworten zum Trainieren eines konkurrierenden Modells verwendet.

Diese Kampagnen werden immer aktiver und ausgefeilter, stellte Anthropic am Montag fest. Die Reaktionszeit ist kurz und die Bedrohung geht über eine einzelne Organisation oder Region hinaus. Sie erfordert ein schnelles, koordiniertes Vorgehen aller Akteure der Branche, des Gesetzgebers und der globalen KI-Gemeinschaft.

Die Destillation kann legal sein: KI-Labore nutzen sie, um kleinere und erschwinglichere Modelle für ihre Kunden zu entwickeln, fügte Anthropic in einem separaten Beitrag auf X hinzu. Ausländische Labore, die sich illegal US-Modelle ausleihen, könnten jedoch die Schutzbestimmungen umgehen und die Fähigkeiten der Modelle für ihre Militär-, Geheimdienst- und Überwachungssysteme nutzen.

Im Juni verklagte Reddit Anthropic und behauptete, das Unternehmen habe mehr als 100.000 Beiträge und Kommentare kopiert und diese Daten zur Verbesserung von Claude verwendet.

Bitcoin

Bitcoin

$71,296.09

BTC 0.71%

Ethereum

Ethereum

$2,095.97

ETH 0.15%

Binance Coin

Binance Coin

$657.51

BNB 0.31%

XRP

XRP

$1.41

XRP 1.14%

Dogecoin

Dogecoin

$0.10

DOGE 0.38%

Cardano

Cardano

$0.26

ADA -0.49%

Solana

Solana

$88.15

SOL -0.12%