drie advocaten gewaarschuwd na gebruik van AI met valse juridische bronnen
Den Haag, zondag, 22 februari 2026.
Drie advocaten kregen een officiële waarschuwing vanwege het gebruik van een AI-programma dat valse en niet-bestaande rechtspraak citeerde. Twee van hen moeten een verplichte cursus volgen over verantwoord AI-gebruik. Het incident vond plaats bij juridische werkzaamheden in Den Haag. Toezichthouder Wouter Timmermans meldt dat AI veel logisch lijkt, maar ook onzin kan zijn. Experts benadrukken dat advocaten altijd moeten controleren wat AI produceert. Het nalaten hiervan tast de integriteit van de advocatuur aan en kost collega’s extra tijd om de fouten te weerleggen. Er lopen nog meer onderzoeken.
waarschuwingen voor haagse advocaten na AI-misbruik
Drie advocaten uit Den Haag hebben een officiële waarschuwing ontvangen vanwege het gebruik van een AI-programma dat valse juridische bronnen genereerde [1]. Twee van hen zijn verplicht gesteld om een gespecialiseerde cursus over verantwoord AI-gebruik te volgen [2]. Het incident betrof het indienen van stukken met onjuiste of fictieve rechtspraakverwijzingen, wat in strijd is met professionele standaarden [1]. De waarschuwingen zijn afkomstig van het toezichthouderschap op de advocatuur, dat actief onderzoek doet naar dergelijke gevallen [2].
risico’s van ongecontroleerd AI-gebruik in de jurisprudentie
Volgens toezichthouder Wouter Timmermans lezen AI-geproduceerde teksten vaak logisch, zelfs wanneer ze onzin bevatten [1]. Hij benadrukte dat advocaten nooit blind kunnen vertrouwen op de inhoud die AI genereert [2]. Hoogleraar rechten Lodewijk Smeehuijzen voegde hieraan toe dat het citeren van niet-bestaande bronnen ernstig is en de integriteit van de advocatuur aantast [1]. Juristen moeten alle AI-gegenereerde inhoud grondig controleren alvorens deze te gebruiken in processtukken [2].
extra belasting voor tegenpartijen en gerechtelijke efficiëntie
Advocaat Erik Braun verklaarde dat hij extra uren verloor door onjuiste AI-gegenereerde argumenten te moeten weerleggen [1]. Volgens hem werden er artikelen geciteerd die totaal irrelevant waren [2]. Dit soort fouten vertraagt procedures en verhoogt kosten voor beide partijen [1]. Braun benadrukte dat iedere jurist meteen ziet wanneer tekst is gegenereerd door AI zonder controle [2]. Ongecontroleerd gebruik van AI schaadt dus niet alleen de eigen reputatie, maar ook de efficiency van het systeem [1].
meerdere onderzoeken lopen naar AI-gebruik bij advocaten
Naast de drie bekende gevallen zijn er nog meerdere lopende onderzoeken naar mogelijk oncorrect AI-gebruik door advocaten [1]. Rechters in Arnhem, Rotterdam en Groningen meldden eerder al twijfel over de authenticiteit van ingediende documenten [2]. In een eerdere zaak in december 2025 oordeelde de rechtbank in Den Bosch dat een burger ChatGPT had gebruikt zonder controle, wat werd aangemerkt als misbruik van het recht [1]. Het toezichthouderschap verwacht dat meldingen toenemen naarmate AI vaker wordt ingezet [2].