V. Ik maak me zorgen over Artificiële Intelligentie en Privacy. Zijn er betrouwbare gegevens over of een bepaalde tool mijn instructies en teksten al dan niet gaat gebruiken om zijn model te trainen, en dat mijn gegevens op straat liggen?
A. Dat is een gegronde bekommernis.
De gegevens
Ik heb een en ander samengezet in een NotebookLM die je hier kan raadplegen. In tabelvorm ziet dat er zo uit:
Hier is een overzichtelijke tabel met de sterke en zwakke punten (met een sterke nadruk op privacy en functionaliteit) van de verschillende AI-platformen, gebaseerd op de bronnen:
Aquí tienes la tabla actualizada en neerlandés, incorporando la información más reciente de las fuentes, incluyendo los detalles ampliados sobre Mistral, los recientes cambios en las políticas de Claude, la retención de datos en ChatGPT (agente “Operator”) y Perplexity, entre otros:
| Platform | Sterke punten | Zwakke punten & Privacyrisico’s |
|---|---|---|
| ChatGPT (OpenAI) | Zeer krachtig, marktleider (inclusief de nieuwe GPT-5.1 architectuur). Enterprise– en Team-accounts trainen standaard niet op jouw data en bieden Enterprise Key Management (EKM) voor eigen encryptiebeheer. | De consumentenversie traint standaard op jouw chats. De nieuwe “Operator” agent bewaart data en screenshots tot wel 90 dagen. Gevoelig voor het bewaren van “Zombie Data” (data die niet gewist mag worden) wegens rechtszaken, zoals die van de NYT. |
| Claude (Anthropic) | Zeer capabel in programmeertaken. Voor Enterprise-, Team– en API-gebruikers wordt data contractueel niet gebruikt voor training. | Eind 2025 is het beleid voor consumenten gewijzigd: chats en code worden nu standaard gebruikt voor training (opt-out is vereist). Deze data kan tot 5 jaar bewaard worden. Ook zijn er via “Claude Code” risico’s gemeld waarbij per ongeluk productiedatabases werden gewist. |
| Google Gemini (& NotebookLM) | Naadloze integratie met Google Workspace. Workspace- en Educatie-accounts trainen niet op jouw data en hebben geen menselijke review. NotebookLM is een veilige, “gesloten” onderzoeksassistent die alleen jouw geüploade bronnen gebruikt zonder deze te trainen. | De consumentenversie traint wel op chats. Een deel van de gesprekken wordt gelezen door menselijke reviewers en kan tot 3 jaar bewaard worden. Zelfs als je opslag uitschakelt, wordt data vaak nog 72 uur bewaard. |
| Perplexity AI | Uitstekend voor onderzoek met transparante bronvermeldingen. De Enterprise Pro-versie gebruikt jouw data nooit voor AI-training, biedt Zero Data Retention en verwijdert geüploade bestanden na 7 dagen. | De gratis en standaard Pro-versies gebruiken zoekopdrachten standaard voor AI-training tenzij dit handmatig wordt uitgezet. Het platform deelt tevens veel data (ca. 36%) met derde partijen voor o.a. advertenties. |
| Microsoft Copilot | De Enterprise-versie (Microsoft 365 Copilot) biedt ijzersterke databescherming: data verlaat de eigen bedrijfsomgeving (tenant) niet en traint de basismodellen niet. | De consumentenversie gebruikt mogelijk data voor training en advertenties. Binnen bedrijven is er een aanzienlijk risico op intern “over-delen” van data als werknemersrechten (zoals in SharePoint) niet strak zijn geconfigureerd. |
| Mistral AI | Gevestigd in de EU (Frankrijk), wat gunstig is voor GDPR-naleving. Bij Le Chat Team, Entreprise en betaalde Mistral AI Studio-abonnementen wordt data standaard niet gebruikt voor training. | De gratis consumentenversie traint standaard wél op jouw data (opt-out vereist). Leunt zwaar op niet-Europese cloudinfrastructuur (zoals Microsoft en Google). API-queries worden na verwerking nog 30 dagen bewaard voor moderatie. |
| Aleph Alpha | Duits (EU) bedrijf met een strikte focus op datasoevereiniteit en GDPR-naleving. Traint niet op jouw data, zeer veilig voor overheden. | Vrijwel uitsluitend gericht op grote ondernemingen, waardoor het ontoegankelijk is voor individuele gebruikers. Modellen presteren over het algemeen iets minder krachtig dan die van de marktleiders. |
| Grok (xAI) | Krachtige en snelle modellen. | Zeer slechte privacyhouding: gebruikt chats en X (Twitter)-berichten agressief voor training. Het ongecensureerde karakter kan schadelijke output opleveren. |
| DeepSeek & Qwen | Technisch zeer geavanceerde en indrukwekkende Chinese modellen. | Alle data wordt verwerkt op Chinese servers en valt onder lokale staatssurveillancewetten. Direct gebruik vormt een enorm veiligheids- en privacyrisico buiten China. |
| CamoCopy & Fello AI (Privacy-first alternatieven) | CamoCopy is 100% EU-gebaseerd, GDPR-compliant en traint niet op jouw data. Fello AI is een “local-first” applicatie waarbij de chatgeschiedenis lokaal (bijv. op je Mac of iPhone) wordt bewaard in plaats van in de cloud. | Omdat het platformen of interfaces (‘schillen’) zijn rondom modellen van derden, kun je afhankelijk zijn van externe software-updates of beperkt zijn tot de specifieke open-source implementaties. |
Conclusies
- Sommige tools zijn een pak privacy-vriendelijker dan andere.
- De beste zijn Copilot Pro en specifieke oplossingen zoals CampoCopy en bv. Mistral.
- Wees steeds op je hoede. Bijvoorbeeld: anonimiseer teksten die je aan AI geeft, zodat de gegevens van die tekst nooit aan een persoon gelinkt kunnen worden.
- Vermijd de slechtste.
Geef een reactie