eu drops loophole allowing scans of private messages for child abuse content
Brussel, vrijdag, 17 april 2026.
the european parliament has ended a temporary rule that let tech companies scan private messages for child sexual abuse material. the move follows growing concern over privacy risks and limited effectiveness. the exemption expired on april 3, 2026, leaving no legal basis for such scans across the bloc. nearly one in four young people in the netherlands report having seen child abuse content online, according to research by defence for children nederland. critics warn the lapse weakens protections just as harmful content spreads through apps like whatsapp and snapchat. pressure mounts on lawmakers to agree on a lasting solution under the digital services act. the commission now faces calls to enforce stricter oversight and require active detection by all platforms.
eu-parlement stopt tijdelijke scanningregel voor privémessages
In Brussel heeft het Europees Parlement op donderdag besloten geen verdere uitzondering toe te staan op de e-Privacyrichtlijn voor het scannen van privécommunicatie op kindermisbruikmateriaal [1]. De tijdelijke regeling, die techbedrijven toestond vrijwillig berichten te analyseren, liep op 3 april 2026 officieel af [1]. Met 228 stemmen vóór, 311 tegen en 92 onthoudingen werd het voorstel van de Commissie verworpen [1]. Daarmee ontbreekt nu een bloedlinkse juridische grondslag voor dergelijke scans binnen de hele EU [1].
privacy bezorgdheden en twijfel over effectiviteit leidden tot einde regel
Critici van de vrijwillige scanningmaatregel waarschuwden herhaaldelijk voor ingrepen in de privacy van gebruikers [1]. Er waren ook vraaktekens over hoe effectief de scans echt waren in het terugdringen van online kindermisbruik [1]. Hoewel het Parlement oorspronkelijk openstond voor een kortere verlenging tot augustus 2027, bleef de discussie stroef [1]. Omdat er geen akkoord kon worden bereikt met de Raad, loopt de interimsregeling definitief af zonder opvolger [1].
een kwart jongeren zag al kindermisbruikmateriaal online
Uit onderzoek van het Verwey-Jonker Instituut in opdracht van Defence for Children Nederland blijkt dat bijna één op de vier jongeren in Nederland seksueel misbruikmateriaal van kinderen heeft gezien [2]. Ruim twee derde van de jongeren (68%) kwam ook gewelddadige seksuele content tegen, zoals verkrachting of fysieke dwang [2]. Volgens de organisatie verspreidt deze content zich snel via apps als WhatsApp, Telegram, Snapchat en TikTok [2]. Slechts 4% van de jongeren meldde de content bij autoriteiten [2].
activisten dringen aan op permanente wettelijke oplossing
Na het wegvallen van de tijdelijke regel roept Defence for Children Nederland de Europese en Nederlandse overheid op tot snelle invoering van vastere regels [2]. Directeur Carrie van der Kroon benadrukt dat de verantwoordelijkheid ligt bij techbedrijven, niet bij kinderen [2]. De organisatie pleit voor wettelijke plichten voor álle diensten om schadelijke content actief te verwijderen [2]. Ook moet worden gestopt met het algoritmisch aanraden van extremere content [2].
druk op brussel voor snelle wetgeving onder digitaal beleid
Met het verstrijken van de interimsmaatregel groeit de druk op de Europese Commissie om concreet te handelen [1]. Er is een oproep om de bestaande Digitale Dienstenwetgeving (Digital Services Act) aan te passen ter bescherming van minderjarigen [3]. Organisaties willen dat alle platforms verplicht worden om systematisch te zoeken naar kindermisbruikmateriaal [2]. Internationale samenwerking en toezicht door instanties als de AP en ACM zijn cruciaal [2].