Compass Investments

Crypto vs. Dollar

📌 Os observadores estão a zombar das alegações da Anthropic de que os centros de investigação de IA chineses estão a roubar as suas informações – transcript

A Anthropic alega que três laboratórios de IA chineses têm andado a desviar os resultados da Claude em grande volume, utilizando contas falsas. . Uma

– A Anthropic alega que três laboratórios de IA chineses têm andado a desviar os resultados da Claude em grande volume, utilizando contas falsas.

A empresa acredita que tais acções minam os controlos de exportação e põem em risco as salvaguardas de segurança.

Alguns críticos da rede X acusaram a Anthropic de duplicidade de critérios no que respeita ao processo de formação de modelos de IA.

A Anthropic acusou os três laboratórios de IA chineses de se apropriarem indevidamente de milhões de respostas do seu chatbot Claude para treinar os seus sistemas, o que, segundo a empresa, viola os seus termos de serviço e enfraquece as restrições à exportação dos EUA.

Em uma postagem de blog publicada na segunda-feira, a Anthropic disse que descobriu ações direcionadas pelos desenvolvedores de IA DeepSeek, Moonshot e MiniMax para extrair os recursos do Claude por meio da destilação de modelos. A empresa afirma que esses laboratórios geraram mais de 16 milhões de diálogos usando aproximadamente 24.000 contas falsas.

A alegação da Anthropic provocou ceticismo e ridicularização na X. Os opositores questionaram a posição da empresa, dada a forma como os modelos de IA subjacentes, incluindo o Claude, são treinados, reflectindo disputas mais amplas em curso sobre direitos de propriedade intelectual, direitos de autor e utilização justa. Os laboratórios que gostam de falar de ‘investigação aberta’ estão de repente a queixar-se do acesso aberto.

Oh não, a minha IA privada não, como se atrevem a usá-la para treinar o seu modelo, só o Anthropic tem o direito de usar a propriedade intelectual de outras pessoas, isto é inaceitável!” escreveu outro utilizador do X.

A destilação é uma forma de treinar uma IA em que um modelo mais pequeno é treinado com base nos resultados de um modelo maior. Na cibersegurança, o termo também pode referir-se a ataques de mineração de padrões, em que um atacante usa acesso legítimo para consultar sistematicamente um sistema e, em seguida, aplica as respostas para treinar um modelo concorrente.

“Estas campanhas estão a tornar-se cada vez mais activas e sofisticadas, observou o Anthropic na segunda-feira. “O tempo de resposta é curto e a ameaça ultrapassa uma única organização ou região. Será necessária uma ação rápida e coordenada de todos os intervenientes da indústria, dos legisladores e da comunidade global de IA.

“A destilação pode ser legal: os laboratórios de IA estão usando-a para criar modelos menores e mais acessíveis para seus clientes, acrescentou Anthropic em uma postagem separada no X. No entanto, os laboratórios estrangeiros que emprestam ilegalmente modelos dos EUA podem contornar as proteções e aplicar as capacidades dos modelos aos seus sistemas militares, de inteligência e de rastreamento.

Em junho, o Reddit processou a Anthropic, alegando que a empresa copiou mais de 100.000 mensagens e comentários, utilizando esses dados para melhorar o Claude.

Bitcoin

Bitcoin

$70,960.31

BTC 0.17%

Ethereum

Ethereum

$2,087.16

ETH -0.28%

Binance Coin

Binance Coin

$654.95

BNB -0.23%

XRP

XRP

$1.41

XRP 0.33%

Dogecoin

Dogecoin

$0.10

DOGE -0.01%

Cardano

Cardano

$0.26

ADA -1.16%

Solana

Solana

$87.84

SOL -0.47%