.wrapper { background-color: #f9fafb; }

Nga njëra anë, sistemet e saj po ofrojnë rekomandime për shënjestrimin në kohë reale për U.S. sulmet ajrore në Iran. Nga ana tjetër, është urdhëruar të tërhiqet plotësisht nga industria e mbrojtjes. Antropike, një nga laboratorët kryesorë të AI, është gjetur në një pozitë jashtëzakonisht kontradiktore dhe të sikletshme.

Konfuzioni rrjedh nga konflikti i SHBA-ve. politikat e qeverisë. Administrata Trump më parë udhëzoi agjencitë civile që të ndalonin përdorimin e produkteve të Anthropic dhe i dha Departamentit të Mbrojtjes një afat gjashtëmujor për të mbyllur bashkëpunimin me kompaninë.. Megjithatë, përpara se direktiva të mund të zbatohej plotësisht, SHBA-të. dhe Izraeli nisi një sulm të befasishëm ndaj Iranit, duke e zhytur rajonin në konflikt të përshkallëzuar. Aktualisht, Modelet e Anthropic - të integruara me sistemin Maven të Palantir - janë ende duke u përdorur nga Pentagoni për të siguruar inteligjencën e synimeve dhe për t'i dhënë përparësi sulmeve.

Një shtëllungë tymi ngrihet pas një sulmi me raketa në një ndërtesë në Teheran në mars 1, 2026.

Megjithatë kjo “bashkëpunimi i kohës së luftës” nuk e ka ndryshuar fatin e kompanisë për t'u larguar. Megjithëse Sekretari i Mbrojtjes Pete Hegseth është zotuar të caktojë Anthropic si një “rreziku i zinxhirit të furnizimit,” asnjë veprim ligjor nuk është ndërmarrë deri më tani. Ndërkohë, kontraktorët e mbrojtjes si Lockheed Martin kanë filluar tashmë të zëvendësojnë modelet e Anthropic, dhe shumë startup që varen nga kontratat e mbrojtjes po përpiqen të gjejnë alternativa.

Duke ecur përpara, Anthropic duhet të lundrojë si në polemikat etike që lidhen me përdorimin e teknologjisë së tij në zonat aktive të luftës ashtu edhe me kërcënimin e mundshëm të procesit gjyqësor të mundshëm. Ky yll dikur i famshëm i AI po margjinalizohet me shpejtësi nga ekosistemi i teknologjisë ushtarake.

Nga admin