AI, Google, Palantir en Profilering – Hoe onze digitale sporen ons kwetsbaar maken

Door Evert Lenos 

Inleiding

Mijn stelling is dat AI en Google net zo’n grote scam zijn als de maanlanding in 1969. Er is een klein groepje mensen op de wereld dat in grote mate kan bepalen wat de rest van de wereld denkt. Door de komst van het internet is dit alleen maar makkelijker geworden.

Kijk alleen al naar wat ik de coronahoax noem: tijdens deze periode was de censuur op internet ongekend. Informatie die niet binnen het gewenste narratief paste, werd verwijderd of verborgen. Met de komst van AI is dit gevaar alleen maar verder toegenomen.

Veel mensen zien Google, Wikipedia en AI als de “heilige graal” van kennis, maar vergeten dat het altijd mensen zijn die deze informatie online zetten. Daarmee kunnen ze een eigen werkelijkheid creëren waarin iedereen gaat geloven. Daar komt bij dat AI zelf geen toegang heeft tot fysieke archieven of bibliotheken. AI is volledig afhankelijk van de data waarmee het gevoed wordt — en wie zegt dat dat niet afkomstig is van veiligheidsdiensten met een eigen agenda?

Dit verslag onderzoekt hoe controle over informatie werkt, hoe AI en massaprofilering samenwerken, en welke gevaren dit oplevert voor onze privacy en vrijheid.

Controle over informatie

Een klein aantal grote bedrijven – zoals Google, Meta, Microsoft en OpenAI – bepaalt in hoge mate welke informatie mensen tegenkomen.

  • Algoritmische filtering: Zoekresultaten en social media-tijdlijnen worden gestuurd door algoritmes, waardoor afwijkende meningen minder zichtbaar zijn.

  • Dataselectie en bias: AI-modellen gebruiken vooraf geselecteerde datasets, die bewuste of onbewuste vooringenomenheid kunnen bevatten. Zo ontstaat een gefilterde werkelijkheid die niet per se de volledige waarheid weerspiegelt.

AI en Palantir: massaprofilering in vijf stappen

Stap 1 – Gegevensverzameling

Gegevens komen uit meerdere bronnen:

  • Online: Social media-posts, likes, shares, hashtags.

  • Communicatie: Metadata van e-mails, telefoongesprekken, chatapps.

  • Publieke databanken: Bedrijfsregisters, stemhistorie, andere openbare gegevens.

  • Offline: Camera’s met gezichtsherkenning, kentekenregistratie, transacties.

Stap 2 – Datafusie

Palantir koppelt al deze bronnen:

  • Identiteitskoppeling: Online alias ↔ echte naam.

  • Netwerkanalyse: Wie kent wie, en hoe sterk is die band.

  • Locatiepatronen: Waar kom je vaak, met wie.

Stap 3 – Profielopbouw

AI analyseert het gedrag van individuen:

  • Teksten: Kritische woorden, politieke standpunten.

  • Sentiment: Boos, sceptisch, activistisch.

  • Gedragspatronen: Deelname aan protesten, politieke campagnes, online interacties.

Stap 4 – Risicoscores

Op basis van het profiel krijgt iedereen een score:

  • Laag: Neutraal.

  • Middel: Kritisch.

  • Hoog: Mogelijk dissident → extra monitoring.

Stap 5 – Acties

Afhankelijk van de score kunnen acties worden ondernomen:

  • Gerichte beïnvloeding: Propaganda en advertenties.

  • Digitale uitsluiting: Beperkingen op diensten of toegang.

  • Fysieke acties: Surveillance of, in autoritaire regimes, arrestaties.

AI-chats: de onderschatte bron van informatie

Mensen gebruiken AI-chatbots voor uiteenlopende taken:

  • Sollicitatiebrieven en cv’s (inclusief volledige persoonsgegevens).

  • Vertalen of samenvatten van medische dossiers.

  • Herschrijven van privécommunicatie.

  • Optimaliseren van bedrijfsdocumenten.

Gevaren:

  • Identificeerbaarheid: Persoonsgegevens worden direct prijsgegeven.

  • Profielen: Psychologische en politieke profielen kunnen worden opgebouwd op basis van schrijfstijl en onderwerpen.

  • Misbruik: Gevoelige informatie kan worden gebruikt voor chantage of andere vormen van controle.

  • Toegang door derden: Veiligheidsdiensten of bedrijven kunnen via AI toegang krijgen tot zeer persoonlijke data.

Waarom dit werkt

De bouwstenen bestaan al: social media scraping, gezichtsherkenning, AI-gestuurde gedragsanalyse en geavanceerde datakoppeling. Palantir en soortgelijke systemen voegen dit samen tot één compleet beeld van een persoon. AI maakt dit schaalbaar, goedkoop en razendsnel.

Het gevaar zit niet in AI zelf, maar in wie de controle heeft over de data en met welk doel.

Conclusie

Technologie is op zichzelf neutraal, maar in verkeerde handen kan het leiden tot grootschalige controle, beïnvloeding en onderdrukking. Wie bepaalt wat wij zien en geloven, bepaalt hoe we denken en handelen.

Boodschap: Wees bewust van wat je online deelt – vooral in AI-chats. Begrijp dat elke klik, elk document en elke interactie bijdraagt aan een digitaal profiel dat gebruikt kan worden voor beïnvloeding of controle. Een gewaarschuwd mens telt voor twee.

Reacties

Populaire posts van deze blog

Machtsmisbruik en manipulatie: Hoe de FIOD en het OM de rechtsstaat ondermijnen

Liefde die verder reikt dan het leven: mijn persoonlijk verhaal van verlies en spirituele groei

2048: Blauwdruk Nederland, de Nederlandse "New Deal"