📌 Gli osservatori sogghignano alle affermazioni di Anthropic secondo cui i centri di ricerca cinesi sull’intelligenza artificiale stanno rubando le loro informazioni – trascrive
– Anthropic sostiene che tre laboratori cinesi di intelligenza artificiale hanno sottratto i risultati di Claude in gran quantità utilizzando account falsi.
L’azienda ritiene che tali azioni minino i controlli sulle esportazioni e mettano a rischio le garanzie di sicurezza.
Alcuni critici della rete X hanno accusato Anthropic di applicare due pesi e due misure al processo di formazione dei modelli di intelligenza artificiale.
Anthropic ha accusato i tre laboratori cinesi di IA di essersi appropriati di milioni di risposte del suo chatbot Claude per addestrare i suoi sistemi, il che, secondo l’azienda, viola i suoi termini di servizio e indebolisce le restrizioni alle esportazioni degli Stati Uniti.
In un post sul blog pubblicato lunedì, Anthropic ha dichiarato di aver scoperto azioni mirate da parte degli sviluppatori di AI DeepSeek, Moonshot e MiniMax per estrarre le capacità di Claude attraverso la distillazione dei modelli. L’azienda sostiene che questi laboratori hanno generato oltre 16 milioni di dialoghi utilizzando circa 24.000 account falsi.
Le affermazioni di Anthropic hanno suscitato scetticismo e scherno in X. Gli oppositori hanno messo in dubbio la posizione dell’azienda, visto il modo in cui vengono addestrati i modelli di IA sottostanti, tra cui Claude, riflettendo le più ampie controversie in corso sui diritti di proprietà intellettuale, sul copyright e sul fair use.
´Hai imparato dall’internet aperto e ora lo chiami ‘attacchi di distillazione’ quando gli altri stanno imparando da te, ha scritto Tory Green, cofondatore di IO.Net, una società di infrastrutture per l’IA.
I laboratori che amano parlare di ‘ricerca aperta’ improvvisamente si lamentano dell’accesso aperto.
Oh no, non la mia IA privata, come osano usarla per addestrare il loro modello, solo Anthropic ha il diritto di usare la proprietà intellettuale di altre persone, questo è inaccettabile! ha scritto un altro utente di X.
La distillazione è un metodo di addestramento di un’intelligenza artificiale in cui un modello più piccolo viene addestrato sull’output di un modello più grande.
ella cybersicurezza, il termine può anche riferirsi ad attacchi di pattern mining, in cui un aggressore utilizza un accesso legittimo per interrogare sistematicamente un sistema e poi applica le risposte per addestrare un modello concorrente.
Queste campagne stanno diventando sempre più attive e sofisticate, ha osservato lunedì Anthropic.
Il tempo di risposta è breve e la minaccia va oltre una singola organizzazione o regione. Sarà necessaria un’azione rapida e coordinata da parte di tutti gli operatori del settore, dei legislatori e della comunità globale dell’IA.
La distillazione può essere legale: i laboratori di IA la utilizzano per creare modelli più piccoli ed economici per i loro clienti, ha aggiunto Anthropic in un post separato su X. Tuttavia, i laboratori stranieri che prendono illegalmente in prestito i modelli statunitensi potrebbero aggirare le protezioni e applicare le capacità dei modelli ai loro sistemi militari, di intelligence e di sorveglianza.
A giugno Reddit ha citato in giudizio Anthropic, sostenendo che l’azienda ha copiato più di 100.000 post e commenti, utilizzando questi dati per migliorare Claude.