Secretarul american al Apărării îl convoacă pe CEO-ul Anthropic din cauza refuzului de a pune sistemul de AI la dispoziția armatei SUA
Contextul situației dintre Pentagon și Anthropic
Pete Hegseth, secretarul american al Apărării, l-a convocat pentru marți pe Dario Amodei, CEO al start-up-ului de inteligență artificială Anthropic, potrivit unei declarații făcute unui oficial pentru AFP. Motivul convocării este refuzul companiei de a permite utilizarea sistemului său de AI în anumite scopuri militare și de supraveghere.
Pentagonul a cerut furnizorilor săi de inteligență artificială să elimine restricțiile privind aplicarea modelelor AI în limitele legalității. Deși majoritatea furnizorilor au acceptat, Anthropic a impus limitări pentru a preveni utilizarea AI-ului Claude în scenarii de „supraveghere în masă a populațiilor” și „automatizarea unui atac letal”.
Ultimatum pentru Dario Amodei și implicațiile acestuia
Departamentul Apărării a exercitat presiune asupra companiei și, conform unor instituții media americane, a amenințat că va rezilia contractul și ar putea include Anthropic pe lista companiilor care prezintă „un risc pentru aprovizionare” („supply chain risk”). Această listă impune restricții considerabile asupra contractelor cu administrația SUA și reunește în prezent numai companii străine, precum producătorul chinez Huawei și firma rusă Kaspersky.
Un purtător de cuvânt al Anthropic a declarat pentru AFP că „Anthropic se angajează să sprijine securitatea națională a SUA prin intermediul inteligenței artificiale”, menționând totodată că au existat „discuții productive și de bună-credință” cu secretarul Apărării.
Potrivit site-ului Axios, citând o sursă din Departamentul Apărării, Pete Hegseth îi va transmite lui Amodei un ultimatum. O posibilă ruptură ar avea consecințe semnificative pentru companie, care ar pierde un contract în valoare de 200 de milioane de dolari, semnat în iunie, dar și pentru Departamentul Apărării, deoarece modelul Claude este singurul AI folosit pentru operațiuni de apărare clasificate.
Abordarea etică a inteligenței artificiale la Anthropic
Fondată în 2021 de foști angajați ai OpenAI, Anthropic promovează o abordare etică în dezvoltarea AI-ului. La începutul anului 2026, compania a publicat un document intitulat „statutul său”, care conține instrucțiuni menite să controleze funcționarea AI-ului Claude, vizând în special „prevenirea acțiunilor care prezintă pericol necorespunzător”.
Rămâne de văzut cum va evolua relația dintre Pentagon și Anthropic, în contextul tensiunilor generate de utilizarea inteligenței artificiale pentru scopuri militare și de securitate.


