Agențiile de informații americane implementează activ instrumente avansate de inteligență artificială de la Anthropic, în ciuda faptului că Pentagonul a desemnat oficial compania drept „risc în lanțul de aprovizionare", conform unui nou raport evidențiat de Axios.
În centrul controversei se află modelul Mythos Preview al Anthropic, care, potrivit surselor, este utilizat în prezent la Agenția Națională de Securitate (NSA). Această evoluție expune o divergență în creștere în cadrul guvernului american cu privire la modul de echilibrare a adoptării rapide a inteligenței artificiale cu restricțiile interne de securitate.

Pentagonul a inclus Anthropic pe lista neagră la începutul lunii februarie 2026, după un diferend privind măsurile de siguranță pentru inteligența artificială și utilizarea militară, avertizând oficial că sistemele sale reprezintă o potențială vulnerabilitate în lanțul de aprovizionare. Cu toate acestea, oficialii din domeniul informațiilor par să acorde prioritate capacităților Mythos, în special în domeniul securității cibernetice, în detrimentul acestor preocupări.
Potrivit surselor, Agenția Națională de Securitate (NSA) a adoptat Mythos, la fel ca și alte unități din cadrul Departamentului. Până acum, detaliile specifice ale utilizării Mythos de către NSA nu sunt cunoscute public, dar în alte locuri modelul este utilizat în principal pentru a scana mediile interne în căutarea defectelor de securitate. Modelul este considerat unul dintre cele mai avansate sisteme de inteligență artificială disponibile, cu capacități „agentice" puternice care îi permit să analizeze autonom și să exploateze sisteme complexe.
Rapoartele privind utilizarea de către NSA și DOD apar la câteva zile după ce persoane din interior au declarat că Casa Albă negocia accesul la modelul Mythos al Anthropic, chiar și pe măsură ce eforturile de a include compania pe lista neagră continuau. Mai recent, CEO-ul Dario Amodei a confirmat, de asemenea, că firma a fost în contact cu oficiali guvernamentali și este deschisă la colaborare.
Unele agenții susțin că limitarea accesului la o astfel de inteligență artificială puternică ar putea pune SUA într-o poziție dezavantajoasă strategic, în special în raport cu rivalii geopolitici. Cu toate acestea, experții avertizează că aceleași capacități care fac Mythos valoros pentru apărare ar putea introduce, de asemenea, noi riscuri. Capacitatea sa de a descoperi vulnerabilități la scară largă ar putea fi transformată în armă în cazul utilizării greșite, ridicând îngrijorări cu privire la escaladarea în războiul cibernetic.
Doar aproximativ 40 de organizații verificate au permisiunea de a utiliza Mythos. Din cele 40 de grupuri, doar 12 sunt cunoscute public, iar NSA este, se pare, ascunsă în majoritate nelistată. În Regatul Unit, agenții similare NSA au remarcat, de asemenea, că au acces la model prin Institutul Național de Securitate AI.
Anthropic descrie Mythos ca fiind remarcabil de puternic în securitatea cibernetică, capabil să detecteze erori profund integrate și să le exploateze independent. Această combinație de detecție avansată și analiză autonomă a stârnit deja atât interes, cât și îngrijorare în rândul factorilor de decizie politică.
Vineri, Amodei s-a întâlnit cu șeful de cabinet al Casei Albe, Susie Wiles, și cu secretarul Trezoreriei, Scott Bessent, pentru a discuta despre modul în care modelul poate fi integrat în siguranță în infrastructura guvernamentală. În ciuda fricțiunilor publice ale Casei Albe cu Anthropic, această întâlnire evidențiază faptul că puterea modelului este pur și simplu prea valoroasă pentru nevoile de securitate federală pentru a fi ignorată.
Ambele părți au caracterizat discuțiile ca fiind productive. Casa Albă a declarat chiar: „Am discutat despre oportunități de colaborare, precum și despre abordări și protocoale comune pentru a aborda provocările asociate cu scalarea acestei tehnologii."
Anthropic a ripostat împotriva Pentagonului în martie, depunând o acțiune în justiție pentru a anula desemnarea de risc în lanțul de aprovizionare care amenința contractele sale guvernamentale. Aceasta a fost prima dată când eticheta „nu suficient de sigur" a fost aplicată unui furnizor intern, împiedicând efectiv utilizarea instrumentelor acestora în uz guvernamental standard.
Echipa juridică a Anthropic a etichetat desemnarea de „risc" ca fiind o tactică de răzbunare după ce Amodei a refuzat cererea DoD de a integra inteligența artificială în sisteme de arme complet autonome și supraveghere internă de masă.
Așa cum a raportat anterior Cryptopolitan, un judecător al tribunalului districtual din California s-a alăturat Anthropic și a blocat temporar eticheta de „risc în lanțul de aprovizionare". Totuși, o curte federală de apel a anulat de atunci această suspendare, menținând desemnarea în vigoare deocamdată.
În primele zile ale eforturilor de includere pe lista neagră, președintele Donald Trump a susținut că stângiștii radicali care conduc firma încercau să dicteze termeni Departamentului Apărării. El a argumentat: „Nu avem nevoie de ea, nu o vrem și nu vom mai face afaceri cu ei!"
În acest moment, unii din cadrul DoD încă cred că refuzul Anthropic de a coopera pe deplin dovedește că ar deconecta tehnologia lor în timpul unui război, făcându-i un risc de fugă în luptă. Cu toate acestea, alți oficiali ai administrației sunt dornici să îngroape securea de război doar pentru a pune mâna pe tehnologia superioară a companiei.
Încă lași banca să păstreze cea mai bună parte? Vizionează videoclipul nostru gratuit despre cum să fii propria ta bancă.
