Anthropic acuză laboratoarele chineze de AI de extragerea Claude
Sursă imagine: Getty Images
AI & ML3 min citire24 februarie 2026

Anthropic acuză laboratoarele chineze de AI de extragerea Claude

Dezbatere intensă în SUA privind exportul de cipuri AI

Anthropic acuză companiile chineze de AI de extragerea modelului Claude prin distilare, în timp ce SUA dezbate exportul de cipuri AI. Distilarea poate submina securitatea națională.


Puncte Cheie

  • Anthropic acuză trei companii chineze de AI de crearea a peste 24,000 de conturi false.
  • DeepSeek, Moonshot AI și MiniMax au generat peste 16 milioane de schimburi cu Claude.
  • Tehnica folosită, numită „distilare”, este controversată și imită modelele altora.
  • Dezbaterea privind exportul de cipuri AI în China este în plină desfășurare.
  • Distilarea poate submina dominația americană în AI și poate crea riscuri de securitate națională.

Acuzații de Extragere a Modelului Claude

Anthropic, o companie de inteligență artificială, a adus acuzații grave împotriva a trei companii chineze de AI: DeepSeek, Moonshot AI și MiniMax. Acestea sunt acuzate că au creat peste 24,000 de conturi false pentru a interacționa cu modelul Claude al Anthropic. Scopul ar fi fost de a îmbunătăți propriile lor modele printr-o tehnică numită „distilare”. Aceasta presupune generarea de peste 16 milioane de schimburi cu Claude, vizând capacitățile sale unice precum raționamentul agentic, utilizarea de instrumente și codificarea.

Contextul Exporturilor de Cipuri AI

Acuzațiile vin într-un moment de dezbatere intensă în SUA privind cât de strict ar trebui să fie controlate exporturile de cipuri AI avansate către China. Politica urmărește să limiteze dezvoltarea AI în China. Distilarea este o metodă comună de antrenare a modelelor AI, dar poate fi folosită de competitori pentru a copia practic munca altor laboratoare. OpenAI, de exemplu, a trimis un memoriu legislatorilor americani, acuzând DeepSeek de utilizarea distilării pentru a imita produsele sale.

Impactul și Reacțiile

DeepSeek a câștigat atenția anul trecut cu modelul său open-source R1, care aproape a egalat performanța laboratoarelor americane de vârf la un cost mult mai mic. Se așteaptă ca DeepSeek să lanseze curând modelul DeepSeek V4, care ar putea depăși performanțele modelului Claude al Anthropic și ChatGPT al OpenAI în codificare. Atacurile de distilare au variat ca amploare, Anthropic urmărind peste 150,000 de schimburi de la DeepSeek, orientate spre îmbunătățirea logicii fundamentale și a alinierii.

Riscuri de Securitate Națională

Anthropic avertizează că distilarea nu doar că amenință dominația americană în AI, dar ar putea crea și riscuri de securitate națională. «Modelele construite prin distilare ilicită sunt puțin probabil să păstreze acele măsuri de siguranță, ceea ce înseamnă că capacitățile periculoase se pot răspândi cu multe protecții eliminate complet», se arată într-o postare pe blogul Anthropic. Dmitri Alperovitch, președintele think-tank-ului Silverado Policy Accelerator și co-fondator al CrowdStrike, a declarat că nu este surprins de aceste atacuri, subliniind că progresul rapid al modelelor chineze de AI se datorează în parte furtului prin distilare.

Apel la Acțiune

Anthropic îndeamnă la o reacție coordonată în întreaga industrie AI, inclusiv furnizorii de cloud și factorii de decizie politică, pentru a combate astfel de atacuri. În timp ce dezbaterea privind exporturile de cipuri AI continuă, Anthropic susține că limitarea accesului la cipuri avansate ar putea reduce atât antrenarea directă a modelelor, cât și amploarea distilării ilicite.

Distribuie acest articol

Abonează-te la StiriX

Primește cele mai noi știri tech direct pe email.