Lucrătorii din tech cer retragerea etichetei de risc pentru Anthropic
Apel către DOD și Congres pentru reevaluarea statutului Anthropic
Sute de lucrători din tech cer DOD să retragă eticheta de risc pentru Anthropic, invocând preocupări privind supravegherea AI și represaliile guvernamentale.
Puncte Cheie
- Sute de lucrători din tech au semnat o scrisoare deschisă către DOD.
- Scrisoarea cere Congresului să examineze utilizarea autorităților extraordinare.
- Semnatari din companii mari precum OpenAI, Slack, IBM, Salesforce Ventures.
- Disputa a început după ce Anthropic a refuzat acces militar nelimitat la sisteme AI.
- Dario Amodei, CEO Anthropic, nu a ajuns la un acord cu secretarul apărării.
Apelul lucrătorilor din tech
Sute de lucrători din industria tehnologică au semnat o scrisoare deschisă adresată Departamentului de Apărare (DOD), solicitând retragerea etichetei de „risc pentru lanțul de aprovizionare” atribuită companiei Anthropic. Scrisoarea face apel și la Congres să intervină și să „examineze dacă utilizarea acestor autorități extraordinare împotriva unei companii tehnologice americane este adecvată.”
Semnatarii provin din firme majore de tehnologie și capital de risc, inclusiv OpenAI, Slack, IBM, Cursor și Salesforce Ventures. Această acțiune vine în urma unei dispute între DOD și Anthropic, după ce laboratorul AI a refuzat să ofere acces nelimitat militar la sistemele sale AI.
Linia roșie a lui Anthropic
Anthropic a stabilit două linii roșii în negocierile cu Pentagonul: să nu permită utilizarea tehnologiei sale pentru supravegherea în masă a americanilor și să nu permită alimentarea armelor autonome care iau decizii de țintire și tragere fără intervenție umană. Deși DOD a declarat că nu intenționează să facă niciuna dintre aceste lucruri, a subliniat că nu ar trebui să fie limitat de regulile unui furnizor.
După ce CEO-ul Anthropic, Dario Amodei, a refuzat să ajungă la un acord cu secretarul apărării Pete Hegseth, președintele Donald Trump a ordonat agențiilor federale să înceteze utilizarea tehnologiei Anthropic după o perioadă de tranziție de șase luni. Hegseth a trecut apoi la desemnarea Anthropic ca risc pentru lanțul de aprovizionare — o etichetă rezervată de obicei adversarilor străini, care ar interzice firmei AI să colaboreze cu orice agenție sau companie care face afaceri cu Pentagonul.
Reacții și consecințe
Într-o postare de vineri, Hegseth a scris: «Cu efect imediat, niciun contractor, furnizor sau partener care face afaceri cu armata Statelor Unite nu poate desfășura activități comerciale cu Anthropic.» Cu toate acestea, o postare pe X nu face automat ca Anthropic să fie un risc pentru lanțul de aprovizionare. Guvernul trebuie să finalizeze o evaluare a riscurilor și să notifice Congresul înainte ca partenerii militari să fie obligați să rupă legăturile cu Anthropic sau produsele sale.
Anthropic a declarat într-o postare pe blog că desemnarea este atât „ilegală”, cât și că va „contesta orice desemnare de risc pentru lanțul de aprovizionare în instanță.” Mulți din industrie văd tratamentul administrației față de Anthropic ca fiind dur și o clară represalii.
Perspective din industrie
„Când două părți nu pot cădea de acord asupra termenilor, cursul normal este să se despartă și să lucreze cu un concurent,” se arată în scrisoarea deschisă. „Această situație stabilește un precedent periculos. Pedepsirea unei companii americane pentru refuzul de a accepta modificări la un contract transmite un mesaj clar fiecărei companii tehnologice din America: acceptați orice termeni cere guvernul sau înfruntați represalii.”
Dincolo de îngrijorarea față de tratamentul dur al guvernului față de Anthropic, mulți din industrie sunt încă preocupați de posibila depășire a guvernului și de utilizarea AI în scopuri nefaste. Boaz Barak, cercetător OpenAI, a scris într-o postare pe rețelele sociale că blocarea guvernelor de la utilizarea AI pentru supraveghere în masă este și „linia sa roșie personală” și „ar trebui să fie a noastră a tuturor.”
La scurt timp după ce Trump a atacat public Anthropic, OpenAI a anunțat că a încheiat un acord propriu pentru ca modelele sale să fie implementate în medii clasificate ale DOD. CEO-ul OpenAI, Sam Altman, a declarat săptămâna trecută că firma are aceleași linii roșii ca Anthropic.
„Dacă ceva bun poate ieși din evenimentele săptămânii trecute, ar fi dacă noi, în industria AI, începem să tratăm problema utilizării AI pentru abuzuri guvernamentale și supravegherea propriilor cetățeni ca un risc catastrofal de sine stătător,” a scris Barak. „Am făcut o treabă bună în evaluări, atenuări și procese, pentru riscuri precum armele biologice și securitatea cibernetică. Să folosim procese similare aici.”
Abonează-te la StiriX
Primește cele mai noi știri tech direct pe email.
