Antropiese medestigter en uitvoerende hoof, Dario Amodei, by die Impakberaad oor Kunsmatige Intelligensie in Nieu-Delhi, Indië, Donderdag 19 Februarie 2026.
Prakash Singh | Bloomberg | Getty Images
Na aanleiding van die Trump-administrasie se besluit Vrydag om Anthropic op die swartlys te plaas en sy tegnologie as ‘n voorsieningskettingrisiko aan te wys, het verdedigingstegnologie-maatskappye werknemers aangesê om op te hou om dit te gebruik Wolk, en skakel oor na ander KI-modelle en assistente.
“Die meeste van ons maatskappye is aktief betrokke by groot verdedigingskontrakte, so die interpretasie van vereistes is baie streng,” sê Alexander Harstrick, besturende vennoot van J2 Ventures, wat nuwe maatskappye in die veld ondersteun.
Hastrick het in ‘n e-pos aan CNBC gesê dat sy firma se 10 portefeuljemaatskappye wat met die departement van verdediging werk “die gebruik van Claude vir verdedigingsgevalle laat vaar het en die diens aktief met ander dienste vervang.”
Intussen hou verdedigingskontrakteurs Lockheed Martin Anthropic se tegnologie sal na verwagting uit sy voorsieningsketting verwyder word, het Reuters laat Dinsdag berig.
Dario Amodei, uitvoerende hoof van Anthropic, het in Januarie aan CNBC gesê dit is ‘n skielike ommekeer vir Anthropic, wat sowat 80% van sy inkomste van ondernemingskliënte kry.
Die maatskappy sal die departement van verdediging se ekosisteem teen die einde van 2024 betree deur saam te werk met sagteware en diensverskaffers Palantir. ‘n Paar maande nadat die ooreenkoms onderteken is, het Claude die eerste groot model geword wat in geklassifiseerde regeringsnetwerke ontplooi is deur ‘n $200 miljoen-kontrak met die Departement van Verdediging. Die model se gewildheid styg steeds in die sakewêreld, veral in die koderingsassistentwêreld.
Pete Hegseth, minister van verdediging, het op X aangekondig dat enige kontrakteur of verskaffer wat sake doen met die Amerikaanse weermag nie toegelaat sal word om sake met Anthropic te doen nie.
Die aankondiging kom nadat Antropiese bestuurders geweier het om te voldoen aan die regeringseise vir die gebruik van sy model. Hulle wil versekering hê dat hul kunsmatige intelligensie nie vir ten volle outonome wapens of grootskaalse binnelandse toesig van Amerikaners gebruik sal word nie.
Soos CNBC voorheen berig het, word Anthropic se modelle steeds gebruik om Amerikaanse militêre operasies in Iran te ondersteun selfs ná die Trump-administrasie se aankondiging.
Dinge is nog lank nie afgehandel nie.

Anthropic kan steeds deur die regstelsel appelleer, maar het nog nie opgetree nie omdat niks amptelik nog gebeur het nie – meestal beperk tot sosiale media-plasings.
Met verwysing na ‘n federale statuut wat deur die Kongres ingestel is, het Anthropic Vrydag in ‘n blogpos gesê Hegseth het nie die gesag om maatskappye wat met Anthropic werk, te beperk om sake met die regering te doen nie.
Die maatskappy het geskryf dat indien die voorsieningskettingrisiko-aanwysing amptelik sou word, dit slegs van toepassing sou wees op die maatskappy se gebruik van Cloud as deel van verdedigingskontrakte en “nie ‘n impak sal hê op hoe kontrakteurs Cloud gebruik om dienste aan ander kliënte te verskaf nie.”
Anthropic het geweier om kommentaar te lewer en het na ‘n blogplasing gewys.
Maar verskeie bestuurders van verdedigingstegnologie, wat gevra het om nie geïdentifiseer te word nie as gevolg van die sensitiwiteit van die saak, het gesê dat hulle werknemers vooraf van Cloud af wegbeweeg.
’n Bestuurder van ’n verdedigingsmaatskappy het gesê hulle het verlede week aan werknemers gesê om die Wolk na ander modelle te begin oorskakel, insluitend ’n paar oopbron-opsies, ’n proses wat ’n week of twee kan neem. Dit kom ter voorbereiding van Vrydag se sperdatum, aangesien albei kante weier om toe te gee.
Die HUB van ‘n ander verdedigingstegnologiemaatskappy het vandeesweek gesê werknemers is Maandag opdrag gegee om op te hou om Cloud te gebruik totdat verdere leiding ontvang is. Die maatskappy moet aanvaar die verbod sal in werking tree, het die persoon gesê.
‘Wees baie versigtig’
Hastrick, wat as ‘n weermagreserwe militêre intelligensie-offisier gedien het en in 2017 na Afghanistan en Irak ontplooi is, het gesê sy maatskappy het die oorskakeling gemaak “uit ‘n oorvloed van versigtigheid.”
“Dit weerspieël geensins ‘n duidelike tekortkoming van Crowder nie, en die meeste mense sê dat hierdie situasie ‘n skande is omdat die produk self so wonderlik is,” het hy geskryf.
Ure nadat die Pentagon die nuus Vrydag aangekondig het, het Sam Altman, uitvoerende hoof van OpenAI, op X geplaas dat sy maatskappy ‘n ooreenkoms met die departement van verdediging bereik het vir die gebruik van sy kunsmatige intelligensie-modelle. Nadat Altman die naweek ‘n vlaag van kritiek in die gesig gestaar het, het Altman Maandag ‘n plasing gepubliseer waarin hy erken dat sy tydsberekening “slordig” was en dat die maatskappy “nie gehaas moes gewees het” om die transaksie te voltooi nie.
Altman het ‘n interne memo uitgereik waarin gesê word dat die maatskappy die kontrak sal wysig om nuwe taal in te sluit wat verduidelik dat “kunsmatige intelligensiestelsels nie doelbewus gebruik mag word vir huishoudelike toesig van Amerikaners en burgers nie.”
President Donald Trump het Vrydag in ‘n sosiale media-plasing gesê dat federale agentskappe ses maande sal hê om die gebruik van die tegnologie uit te faseer. Tot dusver het amptenare by die departement van tesourie, staat en gesondheid en menslike dienste, benewens die departement van verdediging, werknemers opdrag gegee om Crowder te verlaat.
‘n Waagkapitalis in die verdedigingstegnologie-ruimte het aan CNBC gesê dat enige ernstige maatskappy wat met die federale regering sake doen, afhanklikheid van ‘n enkele verskaffer sal vermy, so die sluiting van Anthropic behoort nie groot probleme te veroorsaak nie.
Alex Karp, uitvoerende hoof van Palantir Technologies, het op 20 Januarie 2026 die 56ste jaarvergadering van die Wêreld Ekonomiese Forum (WEF) in Davos, Switserland, bygewoon.
Dennis Balibus | Reuters
Palantir, wat op die regering staatmaak vir byna 60% van sy Amerikaanse inkomste, wou nie kommentaar lewer oor sy planne nie.
Ontleders by Piper Sandler het Dinsdag in ‘n nota aan kliënte geskryf dat Anthropic “diep ingebed is in die militêre en intelligensie-gemeenskappe” en dat die prysgee van die maatskappy se tegnologie “een of ander korttermyn-ontwrigting” in Palantir se bedrywighede kan veroorsaak.
“Terwyl KI-vermoëns herbou kan en sal word met nuwe verskaffers indien nodig, Anthropic [a] Ontleders het ‘n koopgradering op Palantir se aandeel en skryf dat “Palantir ‘n voorloper is in die implementering van kunsmatige intelligensie-modelle in data-sensitiewe omgewings.” Hulle het geskryf dat “die bekendstelling en onderhandeling van alternatiewe tegnologieë tyd en hulpbronne verg” wat “aan groeigeleenthede bestee kan word.”
Nie almal jaag nie.
C3 Kunsmatige Intelligensie Voorsitter en voormalige uitvoerende hoof, Tom Siebel, reken DoD as ‘n kliënt en het ‘n vennootskap met konsultante aangegaan Booz Allen Hamilton. Siebel het in ‘n onderhoud gesê hy sien geen “behoefte om Crowder se aanklagte te versag” op hierdie tydstip “tensy vervolging gebring word.”
‘n Vennoot by ‘n verdediging-gefokusde waagkapitaalfirma het gesê sy portefeuljemaatskappye het beperkte kennis van Claude en is meestal gebruikers van OpenAI-tegnologie.
Tara Chklovski, uitvoerende hoof van Technovation, ‘n wêreldwye tegnologie-onderwys-niewinsorganisasie, het gesê dit kan ‘n gevaarlike besluit wees as die Departement van Verdediging hierdie strategie volg en bande met Anthropic verbreek.
Anthropic was die mees deurdagte modelskepper wanneer dit kom by die bou van stelsels vir die weermag, en enige alternatiewe verskaffers wat deur die regering gebruik word, sal minder veilig wees, het sy gesê.
Die regering het ook kontrakte met Google Vir Gemini en Elon Musk se xAI vir Grok.
“Toe die stof gaan lê het, het hulle besef Anthropic is die enigste maatskappy met hierdie baie unieke stel tegniese vaardighede,” het Chklovski gesê. “Mededinging is so fel dat mense dink om vinnig te groei en sonder hierdie voorsorgmaatreëls is die enigste manier om sukses te behaal. Anthropic se navorsing dui daarop dat dit dalk nie die regte benadering is nie.”
— CNBC se Ashley Capoot en Jordan Novet het bygedra tot hierdie verslag
kyk: Wat is jou rooi lyne?

