failliete techbedrijven verkopen jouw oude werkberichten aan ai
Silicon Valley, maandag, 20 april 2026.
Wanneer een techstartup faalt, blijft vaak nog één waardevol bezit over: de digitale communicatie tussen werknemers. Duizenden interne slackberichten en e-mails worden nu massaal verkocht aan bedrijven die kunstmatige intelligentie ontwikkelen. De gegevens helpen ai-modellen leren hoe mensen echt werken. Wat meestal buiten beschouwing wordt gelaten: niemand vroeg de werknemers om toestemming. Privacyorganisaties noemen dit alarmerend. De berichten bevatten namen, functies en dagelijkse gedachten. Zo wordt persoonsgevoelige informatie onderdeel van grootschalige ai-training, zonder dat de oorspronkelijke afzenders het weten. Het fenomeen begon in Silicon Valley, maar heeft wereldwijde gevolgen voor gegevensbescherming en arbeidsrecht.
data uit failliete bedrijven als grondstof voor ai
In de Verenigde Staten verkeren tientallen techstartups in faalkwaliteit. Wanneer ze sluiten, bieden ze een nieuwe bron van waarde: hun digitale archieven. Bedrijven zoals SimpleClosure helpen oprichters deze data te moneteren door ze te verkopen aan AI-labs [1]. Die zijn op zoek naar echte kantoorcommunicatie om modellen mee te trainen [2]. Het gaat om honderdduizenden Slackberichten, e-mails en documenten [3]. Volgens experts is er sprake van een goudkoorts rond zakelijke bedrijfsdata [1][4].
van interne gesprekken tot trainingsmateriaal
De verzamelde gegevens dienen als input voor zogeheten ‘reinforcement learning gyms’ [1]. Daarin oefenen AI-agenten taakafspraken, planning en teaminteracties na [1]. Deze simulatiemodellen vereisen realistische data om effectief te zijn [1]. Omdat openbare bronnen zoals boeken en Wikipedia ontoereikend zijn geworden, zoeken AI-bedrijven naar binnenbedrijfscommunicatie [4]. Voormalige CEOs verkopen nu alles, van Slackgeschiedenis tot Jira-tickets, als trainingsmateriaal [2]. Een deal kan oplopen tot 100000 dollar per bedrijf [1][4].
privacywaarschuwingen van experts
Privacyorganisaties wijzen op ernstige risico’s bij het doorverkopen van werknemersberichten [1]. Marc Rotenberg, oprichter van het Center for AI and Digital Policy, benadrukt dat het hier niet om anonieme gegevens gaat [1][4]. Mensen zijn vaak direct identificeerbaar via hun schrijfstijl, functietitel of gespreksonderwerp [1]. Zelfs met juridische eigenaarschap door het bedrijf blijft de ethische vraag relevant [4]. De organisatie pleit voor toezicht door de Federal Trade Commission [1][4].
anonymisatie blijft technisch uitdaging
SimpleClosure beweert dat persoonsgegevens worden verwijderd alvorens data te verkopen [1]. Hun platform, Asset Hub, scant interne communicatie op persoonlijk identificeerbare informatie [1]. Toch geeft het bedrijf toe dat volledige anonimisering complex is [4]. Teksten kunnen indirect leiden tot identificatie, zelfs na redactie [4]. Experts twijfelen daarom aan de daadwerkelijke bescherming van werknemersprivé [1][4]. Simpelweg verwijderen van namen is onvoldoende tegen hedendaagse re-identificatietechnieken [GPT].
wereldwijde gevolgen voor arbeidsrechten
Hoewel het fenomeen begint in Silicon Valley, heeft het internationale impact [1]. Werken in multinationals betekent dat berichten mogelijk onder Amerikaans recht vallen [GPT]. Europese werknemers vallen onder GDPR, maar handhaving is moeilijk bij buitenlandse faillissementen [GPT]. Juristen waarschuwen dat bestaande arbeidsovereenkomsten vaak geen regels bevatten over postume dataverkoop [alert! ‘specifieke contractanalyse ontbreekt’] . Dit creëert een juridisch vacuüm rond digitaal nalatenschap [1][4].