Compass Investments

Crypto vs. Dollar

📌 Los observadores se mofan de las afirmaciones de Anthropic de que los centros chinos de investigación en IA están robando su información – transcripción

Anthropic afirma que tres laboratorios chinos de IA han estado desviando resultados de Claude en grandes volúmenes utilizando cuentas falsas. . Minería

– Anthropic afirma que tres laboratorios chinos de IA han estado desviando resultados de Claude en grandes volúmenes utilizando cuentas falsas.

La empresa cree que estas acciones socavan los controles de exportación y ponen en peligro las garantías de seguridad.

Algunos críticos de la red X han acusado a Anthropic de aplicar un doble rasero en el proceso de formación de modelos de IA. Anthropic ha acusado a los tres laboratorios chinos de IA de apropiarse indebidamente de millones de respuestas de su chatbot Claude para entrenar sus sistemas, lo que según la empresa viola sus condiciones de servicio y debilita las restricciones a la exportación de Estados Unidos.

En una entrada de blog publicada el lunes, Anthropic afirma que descubrió “acciones selectivas” por parte de los desarrolladores de IA DeepSeek, Moonshot y MiniMax para extraer las capacidades de Claude mediante la destilación de modelos. La empresa afirma que estos laboratorios generaron más de 16 millones de diálogos utilizando aproximadamente 24.000 cuentas falsas.

La afirmación de Anthropic despertó escepticismo y burlas en X. Sus detractores cuestionaron la posición de la empresa por la forma en que se entrenan los modelos de IA subyacentes, incluido Claude, lo que refleja disputas más amplias sobre los derechos de propiedad intelectual, los derechos de autor y el uso justo.

Habéis aprendido de Internet y ahora lo llamáis “ataques de destilación” cuando otros aprenden de vosotros, escribió Tory Green, cofundador de IO.Net, una empresa de infraestructuras de IA. “Los laboratorios a los que les gusta hablar de ‘investigación abierta’ de repente se quejan del acceso abierto”.

Oh no, mi IA privada no, cómo se atreven a usarla para entrenar su modelo, sólo Anthropic tiene derecho a usar la propiedad intelectual de otros, ¡esto es inaceptable!, escribió otro usuario de X.

La destilación es una forma de entrenar una IA en la que un modelo más pequeño se entrena con los resultados de un modelo más grande.

En ciberseguridad, el término también puede referirse a los ataques de minería de patrones, en los que un atacante utiliza el acceso legítimo para consultar sistemáticamente un sistema y luego aplica las respuestas para entrenar un modelo competidor.

Estas campañas son cada vez más activas y sofisticadas, señaló Anthropic el lunes.

El tiempo de respuesta es corto y la amenaza va más allá de una sola organización o región. Requerirá una acción rápida y coordinada de todos los actores de la industria, los legisladores y la comunidad mundial de la IA.

La destilación puede ser legal: los laboratorios de IA la utilizan para crear modelos más pequeños y asequibles para sus clientes, añadió Anthropic en otro post en X. Sin embargo, los laboratorios extranjeros que toman prestados ilegalmente modelos estadounidenses podrían saltarse las protecciones y aplicar las capacidades de los modelos a sus sistemas militares, de inteligencia y de vigilancia.

En junio, Reddit demandó a Anthropic, alegando que la empresa copió más de 100.000 mensajes y comentarios, utilizando esos datos para mejorar Claude.

Bitcoin

Bitcoin

$70,893.33

BTC -2.47%

Ethereum

Ethereum

$2,075.60

ETH -2.45%

Binance Coin

Binance Coin

$648.04

BNB -1.52%

XRP

XRP

$1.40

XRP -1.92%

Dogecoin

Dogecoin

$0.09

DOGE -5.41%

Cardano

Cardano

$0.27

ADA -2.62%

Solana

Solana

$88.82

SOL -2.28%