anthropic zegt nee tegen pentagon om veiligheidsgrenzen voor ai

anthropic zegt nee tegen pentagon om veiligheidsgrenzen voor ai

2026-02-27 buitenland

Washington D.C., vrijdag, 27 februari 2026.
De ceo van anthropic, dario amodei, heeft geweigerd veiligheidsbeperkingen van het bedrijfs ai-model claudé te halen op verzoek van het pentagon. Het bedrijf vindt dat ai niet mag worden ingezet voor autonome wapens of massasurveillantie. Het amerikaanse ministerie van defensie stond erop dat claudé voor alle wettelijke doeleinden zou kunnen worden gebruikt, anders werd het contract van 200 miljoen dollar geannuleerd. Amodei zei dat ze “niet in goed fatsoen” konden instemmen met die eis. Deze botsing werpt vragen op over wie de controle houdt over krachtige ai-systemen binnen de nationale veiligheid en markeert een zeldzame openlijke weigering van een techbedrijf aan het leger.

spanningsvolle confrontatie tussen anthropic en het pentagon

De VS staat centraal in een opvallende machtsstrijd tussen de overheid en een technologisch bedrijf rondom de controle op kunstmatige intelligentie. Op 27 februari 2026 weigerde Anthropic, ontwikkelaar van het AI-model Claude, een eis van het Pentagon om veiligheidsbeperkingen te schrappen voor militair gebruik [1]. Het bedrijf benadrukte dat het “niet in goed fatsoen” kon instemmen met onbeperkte toegang tot zijn systemen [2]. De botsing dreigt het $200 miljoen contract tussen beide partijen te beëindigen [3].

ethische bezwaren tegen autonome wapens en surveillantie

Volgens CEO Dario Amodei mag AI niet worden ingezet voor volledig autonome wapens of massasurveillantie van burgers [4]. Deze posities staan in het Responsible Scaling Policy (RSP) van Anthropic, dat sinds september 2023 geldt als richtlijn voor veilige AI-ontwikkeling [5]. Het bedrijf waarschuwt dat dergelijke toepassingen fundamentele vrijheden en constitutionele beschermingen ondermijnen [6]. Technologisch gezien kan AI grote hoeveelheden data samenvoegen tot gedetailleerde profielen van individuen, wat ernstige risico’s met zich meebrengt [7].

drastische sancties van het pentagon

Het Pentagon gaf Anthropic een ultimatum: pas de veiligheidsregels aan voor 27 februari 2026 of verlies het contract [8]. Minister van Defensie Pete Hegseth dreigde het bedrijf te bestempelen als een “aanbodketenrisico”, een etiket dat normaliter wordt gebruikt bij buitenlandse bedrijven met banden naar vijandelijke staten [9]. Daarnaast wilde het departement de Cold War-era Defense Production Act activeren om Anthropic te dwingen tot medewerking [10]. Deze maatregelen wijzen op een toenemende druk van de overheid om technologische controle uit te breiden [11].

juridische en strategische tegenstrijdigheid

De tegengestelde beweringen van het Pentagon creëren juridische verwarring. Enerzijds wordt gesteld dat Anthropic een beveiligingsrisico vormt, anderzijds wordt erkend dat Claude essentieel is voor de nationale veiligheid [12]. Volgens Dario Amodei zijn deze twee standpunten “van nature tegenstrijdig” [13]. Kritici onderstrepen dat het gelijktijdig afgeven van deze beweringen juridisch onhoudbaar is en slecht beleid weerspiegelt [14]. Juristen en AI-beleidsmakers betichten het Pentagon van incoherent handelen in cruciale nationale veiligheidskwesties [15].

breder technologisch en politiek landschap

Terwijl Anthropic bleef weigeren, sloot Elon Musk’s xAI al een akkoord voor gebruik van zijn modellen in geclassificeerde militaire systemen [16]. Dit accentueert de verdeeldheid binnen de techsector over verantwoord AI-gebruik. Hoewel sommige bedrijven zich volledig aanpassen, blijft Anthropic pleiten voor ethische grenzen [17]. De situatie speelt zich af tegen de achtergrond van een strenger wordende reguleringsomgeving, waarbij staten zoals Colorado lokale AI-wetten invoeren, ondanks federale interventie [18].

Bronnen


Anthropic AI veiligheid