openai steps in as pentagon turns away from anthropic

openai steps in as pentagon turns away from anthropic

2026-02-28 buitenland

Washington D.C., zaterdag, 28 februari 2026.
OpenAI heeft een deal gesloten met het Pentagon voor de inzet van haar AI-modellen op geclassificeerde militaire netwerken. Dit gebeurt direct na een hard conflict met concurrent Anthropic. Het Pentagon heeft Anthropic aangewezen als een risico voor de nationale veiligheid. Reden: het bedrijf weigerde garanties te geven tegen gebruik in massasurveillance en autonome wapens. President Trump riep alle federale agentschappen op om Anthropic-direct te dumpen. OpenAI neemt nu dezelfde ethische lijnen aan, zoals verbod op binnenlandse spionage en menselijke controle bij wapengebruik. Toch gaat de samenwerking door. De echte twist? Anthropic bouwde technische blokkades. OpenAI vertrouwt op beleid en wetgeving. Dat verschil maakt alles.

amerikaanse overheid keert zich tegen anthropic

De Verenigde Staten hebben een harde koers gekozen tegen het AI-bedrijf Anthropic. President Donald Trump gaf op 27 februari 2026 opdracht aan alle federale agentschappen om direct te stoppen met het gebruik van diens technologie [1]. Deze maatregel volgde op een geschil over ethische beperkingen rond militair gebruik van kunstmatige intelligentie. Het Pentagon bestempelde Anthropic als een “leveranciersketen-risico voor de nationale veiligheid”, wat effectief een boycot creëert voor defensiecontracten [1]. De beslissing betekent een zeldzame staatsinterventie tegen een privékennisbedrijf op basis van beleidsverschillen [3].

ethisch dilemma bij militaire inzet van ai

Het conflict ontstond toen Anthropic weigerde garanties te geven dat zijn AI-model Claude niet zou worden ingezet voor massasurveillance of autonome wapensystemen [5]. Het bedrijf stelde dat deze toepassingen in strijd waren met democratische waarden en de huidige staat van de technologie [4]. Het Pentagon eiste echter onbeperkte toegang tot alle wettelijke militaire doeleinden [1]. Deze botsing legt een fundamentele spanning bloot tussen nationale veiligheidsbehoeften en ethische verantwoordelijkheid in de ontwikkeling van AI [6]. Anthropic verklaarde dat het in goede trouw handelde, ondanks mogelijke financiële consequenties [1].

openai treedt op als alternatieve partner

Op dezelfde dag dat het verbod op Anthropic werd aangekondigd, sloot OpenAI een deal met het Pentagon voor de integratie van zijn AI-modellen in geclassificeerde netwerken [1]. CEO Sam Altman benadrukte dat de samenwerking gebaseerd is op twee kernbeginselen: een verbod op binnenlandse massasurveillance en behoud van menselijke controle bij het gebruik van geweld [2]. Hoewel deze ethische lijnen gelijk zijn aan die van Anthropic, verschilt de uitvoering. OpenAI vertrouwt op beleid en wetgeving, terwijl Anthropic technische blokkades plande [3].

praktische versus technologische beveiliging

Hoewel OpenAI dezelfde ethische rode lijnen trekt als Anthropic, is de benadering van beveiliging cruciaal verschillend [3]. Anthropic wilde technische maatregelen invoeren om misbruik te voorkomen, wat het Pentagon afwees als bemoeienis met operationele autonomie [5]. OpenAI daarentegen vraagt om institutionele garanties en wil dat de regels worden verankerd in beleid en wetgeving [2]. Deze subtiele maar wezenlijke verschuiving maakt het mogelijk om samen te werken zonder directe controle over de uiteindelijke toepassing van de AI [6].

juridische en strategische gevolgen

Anthropic kondigde aan het besluit van het Pentagon juridisch aan te vechten [1]. Het bedrijf argumenteert dat de classificatie als leveranciersketenerisico juridisch onhoudbaar is en een gevaarlijk precedent schept voor publiek-private samenwerking [3]. Ondertussen start een halfjaarlijkse overgangsperiode in, waarin federale instanties Anthropic’s producten moeten vervangen [1]. Experts wijzen erop dat de affaire de kwetsbaarheid van zelfstandige ethische posities laat zien in confrontatie met staatsmacht [4]. De sector moet nu nieuwe manieren vinden om verantwoordelijkheid te waarborgen zonder operationele conflicten [6].

Bronnen


AI-deal verbod