OpenAI zegt dat eigen AI-modellen straks hackers kunnen worden
San Francisco, donderdag, 11 december 2025.
OpenAI waarschuwt dat zijn aankomende kunstmatige intelligentie-modellen een ‘hoog’ cyberrisico vormen. De AI-systemen kunnen volgens het bedrijf zero-day exploits ontwikkelen tegen goed beveiligde systemen of helpen bij complexe industriële inbraakoperaties. Recent scoorde GPT-5 nog 27% op een hacktest, maar GPT-5.1-Codex-Max haalde al 76%. Het Microsoft-gesteunde bedrijf investeert daarom in defensieve tools en richt een adviesgroep op met cybersecurityexperts. OpenAI introduceert ook Aardvark, een tool die al kritieke kwetsbaarheden heeft gevonden. De groeiende capaciteiten kunnen het aantal mensen dat cyberaanvallen kan uitvoeren aanzienlijk uitbreiden.
Explosieve groei in cybercapaciteiten
De waarschuwing komt voort uit spectaculaire verbeteringen in de hackingcapaciteiten van OpenAI’s modellen [3]. Het bedrijf meldde dat GPT-5 in augustus nog 27% scoorde op een capture-the-flag cybersecuritytest, maar GPT-5.1-Codex-Max bereikte vorige maand al 76% [3]. Deze dramatische stijging van 181.481 procent in enkele maanden tijd toont volgens OpenAI aan dat toekomstige modellen waarschijnlijk het ‘hoge’ risiconiveau zullen bereiken binnen hun eigen veiligheidskader [3]. Het bedrijf benadrukt dat modellen steeds langer autonoom kunnen werken, wat brute force-aanvallen mogelijk maakt.
Concrete dreigingen voor bedrijven
OpenAI’s AI-modellen kunnen volgens het bedrijf werkende zero-day remote exploits ontwikkelen tegen goed verdedigde systemen [1][2]. De systemen zijn ook in staat om te assisteren bij complexe enterprise- of industriële inbraakoperaties die gericht zijn op effecten in de echte wereld [1][2]. Deze capaciteiten maken cyberaanvallen toegankelijk voor een veel bredere groep mensen [3]. Fouad Matin van OpenAI legt uit dat vooral de mogelijkheid van modellen om voor langere perioden te werken een ‘forcing function’ is voor deze ontwikkeling [3].
Defensieve maatregelen en nieuwe tools
OpenAI investeert in het versterken van modellen voor defensieve cybersecuritytaken en ontwikkelt tools die verdedigers helpen bij workflows zoals het auditen van code en het dichten van kwetsbaarheden [1][2]. Het bedrijf test momenteel Aardvark, een tool die ontwikkelaars kunnen gebruiken om beveiligingslekken in hun producten te vinden [3]. Deze tool heeft al kritieke kwetsbaarheden ontdekt [3]. Ontwikkelaars moeten zich aanmelden voor toegang tot Aardvark, dat nog in een private testfase verkeert [3].
Nieuwe adviesgroep en toegangscontroles
Het door Microsoft gesteunde bedrijf richt de Frontier Risk Council op, een adviesgroep die ervaren cyberverdedigers en beveiligingsspecialisten in nauwe samenwerking brengt met OpenAI’s teams [1][2][4]. De groep begint met een focus op cyberbeveiliging en breidt zich later uit naar andere grensverleggende capaciteiten [1][2]. OpenAI introduceert binnenkort een programma dat gekwalificeerde gebruikers en klanten die aan cyberdefensie werken gelaagde toegang geeft tot verbeterde capaciteiten [1][2]. Het bedrijf vertrouwt op toegangsbeheer, infrastructuurversterking, egress-controles en monitoring [1][2].
Industrie-brede samenwerking noodzakelijk
OpenAI benadrukt dat niet alleen hun modellen beter worden in het vinden van beveiligingskwetsbaarheden, maar dat dit een trend is bij alle toonaangevende AI-bedrijven [3]. Het bedrijf werkt daarom samen met de industrie via het Frontier Model Forum, dat OpenAI in 2023 oprichtte met andere vooraanstaande labs [3]. Deze samenwerking is cruciaal omdat de risico’s niet beperkt blijven tot één bedrijf. OpenAI had eerder soortgelijke waarschuwingen afgegeven over biologische wapens, waarbij ChatGPT Agent inderdaad het ‘hoge’ risiconiveau bereikte [3].