Problema pentru compania Anthropic este potențiala utilizare a instrumentelor sale, precum asistentul AI Claude, în două scopuri: „supravegherea internă în masă” a cetățenilor și „armele complet autonome”, scriu Reuters și BBC. Pentagonul insistă că nu vrea asta, dar cere Anthropic să elimine orice restricție din sistemele sale AI, lucru pe care compania îl refuză, transmite hotnews.ro.
CEO-ul companiei Anthropic a declarat joi că nu va ceda în disputa cu Pentagonul privind modul în care este utilizată tehnologia sa de inteligență artificială (AI).
Dario Amodei a spus că firma sa ar prefera să nu mai colaboreze cu Pentagonul decât să accepte utilizarea tehnologiei sale într-un mod care ar putea „submina, în loc să apere, valorile democratice”.
Comentariile lui Amodei vin la două zile după o întâlnire cu secretarul american al Apărării, în care Pete Hegseth a cerut ca Anthropic să accepte „orice utilizare legală” a instrumentelor sale. Întâlnirea s-a încheiat cu amenințarea de a elimina Anthropic din lanțul de aprovizionare al Pentagonului.
„Aceste amenințări nu ne schimbă poziția: nu putem accepta cererea lor cu conștiința curată”, a declarat Amodei.
Reuters scrie că poziția lui Amodei pune sub semnul întrebării contractul de 200 de milioane de dolari cu guvernul SUA.
Motivul conflictului dintre Anthropic și Pentagon
Problema pentru Anthropic este potențiala utilizare a instrumentelor sale, precum asistentul AI Claude, în două scopuri: „supravegherea internă în masă” a cetățenilor și „armele complet autonome”.
Amodei a declarat că „astfel de cazuri de utilizare nu au fost niciodată incluse în contractele noastre cu Departamentul de Război și considerăm că nu ar trebui incluse nici acum”.
„În cazul în care Departamentul decide să renunțe la Anthropic, vom depune eforturi pentru a asigura o tranziție lină către un alt furnizor”, a declarat Amodei.
O purtătoare de cuvânt a Anthropic a adăugat joi că, deși compania a primit miercuri seara o versiune actualizată a contractului din partea Departamentului Apărării, aceasta nu oferă „practic niciun progres în ceea ce privește împiedicarea utilizării lui Claude pentru supravegherea în masă a americanilor sau în armele complet autonome”.
„Noua formulare prezentată ca un compromis a fost însoțită de termeni juridici care ar permite ignorarea acestor garanții după bunul plac”, a spus ea.
„În ciuda recentelor declarații publice (ale Departamentului de Război), aceste garanții limitate au constituit punctul central al negocierilor noastre de luni de zile”, a adăugat ea.
Răspunsul Pentagonului
Emil Michael, subsecretarul american al Apărării, l-a atacat personal pe Amodei joi seara, scriind pe X că acesta „nu dorește altceva decât să încerce să controleze personal armata SUA și este de acord să pună în pericol siguranța țării”.
„Este păcat că Dario Amodei este un mincinos și are complexul lui Dumnezeu”, a mai spus oficialul, asigurând că Pentagonul „va respecta întotdeauna legea, dar nu se va supune capriciilor niciunei companii tehnologice cu scop lucrativ”.
Tot joi, purtătorul de cuvânt al Pentagonului, Sean Parnell, a declarat pe X că departamentul nu are niciun interes în utilizarea AI pentru supravegherea în masă a americanilor sau pentru dezvoltarea de arme autonome care funcționează fără implicarea umană.
Un oficial al Pentagonului a declarat anterior pentru BBC că, în cazul în care Anthropic nu se va conforma, Hegseth se va asigura că Legea privind producția de apărare va fi invocată împotriva companiei.
Această lege conferă, în esență, președintelui SUA autoritatea de a considera o anumită companie sau produsul acesteia atât de important încât guvernul poate solicita ca acesta să răspundă nevoilor de apărare.
Hegseth a amenințat, de asemenea, că va eticheta Anthropic drept un „risc pentru lanțul de aprovizionare”, ceea ce va compromite orice contract al acesteia cu guvernul SUA.
Un fost oficial al Departamentului Apărării, care a cerut să nu fie numit, a declarat joi pentru BBC că motivele invocate de Hegseth pentru ambele măsuri erau „extrem de fragile”.
Cum își explică CEO-ul Anthropic refuzul
O persoană familiarizată cu negocierile, care a cerut să nu fie numită, a declarat că tensiunile dintre Anthropic și Pentagon „datează de câteva luni”, înainte să se afle public că Claude a fost utilizat în cadrul operațiunii de capturare a președintelui venezuelean Nicolás Maduro, scrie BBC.
Deși Amodei nu a specificat exact cum ar putea fi utilizată Anthropic de către Pentagon pentru supravegherea în masă sau pentru arme complet autonome, el a scris într-o postare pe blogul companiei că Inteligența Artificială poate fi utilizată pentru a „asambla date dispersate, inofensive individual, într-o imagine cuprinzătoare a vieții oricărei persoane – în mod automat și la scară largă”.
„Susținem utilizarea AI pentru misiuni legale de informații externe și contrainformații”, a spus Amodei. „Dar utilizarea acestor sisteme pentru supravegherea în masă pe plan intern este incompatibilă cu valorile democratice”, a adăugat el.
În ceea ce privește utilizarea AI în arme, Amodei a afirmat că nici cele mai avansate și performante sisteme de AI din prezent „nu sunt suficient de fiabile pentru a alimenta arme complet autonome”.
„Nu vom furniza în mod conștient un produs care pune în pericol soldații și civilii americani”, a declarat Amodei.
„Fără o supraveghere adecvată, armele complet autonome nu pot fi considerate fiabile pentru a exercita judecata critică pe care trupele noastre profesioniste, foarte bine antrenate, o demonstrează în fiecare zi. Ele trebuie să fie utilizate cu măsuri de siguranță adecvate, care nu există în prezent”, a spus Amodei.
El a adăugat că Anthropic „s-a oferit să colaboreze direct cu Departamentul de Război în domeniul cercetării și dezvoltării pentru a îmbunătăți fiabilitatea acestor sisteme, dar oferta nu a fost acceptată”.

