ICT

HarfangLab waarschuwt voor nieuwe AI cyberrisico’s in 2025

04 maart 2026
HarfangLab waarschuwt voor nieuwe AI cyberrisico's in 2025

AI-gedreven aanvallen worden hypergepersonaliseerd en schaalbaar

Europese securityspecialist HarfangLab waarschuwt voor nieuwe AI cyberrisico’s die organisaties bedreigen. Het bedrijf signaleert een sterke toename van hypergepersonaliseerde phishing, manipulatie van AI-modellen en geavanceerde desinformatiecampagnes. AI is volgens de experts niet langer experimenteel, maar een structurele factor aan zowel de aanvals- als verdedigingskant.

AI-criminaliteit groeit sneller dan verdediging

AI-ondersteunde cybercriminaliteit is volgens recent onderzoek uitgegroeid tot de grootste bedreiging voor organisaties in Europa. Waar AI voorheen vooral experimenteel werd ingezet, functioneert het nu als structurele factor aan beide zijden van het cybergevecht. HarfangLab’s waarschuwing sluit aan bij waarnemingen van andere securitybedrijven die eveneens een toename zien van hypergepersonaliseerde aanvallen en manipulatie van AI-modellen. Voor ondernemers in Nederland en België betekent dit dat traditionele beveiligingsmaatregelen onvoldoende worden. Phishing-e-mails worden steeds moeilijker te herkennen omdat ze op persoonlijk niveau geoptimaliseerd zijn, en medewerkers kunnen bedrogen worden door AI-gegenereerde video’s en audio. Het is essentieel om het bewustzijn in uw organisatie te vergroten en securitytrainingen aan te passen aan deze nieuwe realiteit.

Desinformatie en AI-manipulatie vormen groeiende dreiging

Open source AI-modellen en large language models maken het steeds moeilijker om feit van fictie te onderscheiden. Kwaadwillenden gebruiken AI om overtuigende nepcontent te produceren, van tekst en beeld tot audio en video. HarfangLab wijst daarnaast op het risico van zogenoemde data poisoning. Onderzoek toont aan dat minimale aanpassingen in trainingsdata al voldoende kunnen zijn om het gedrag van een model structureel te beïnvloeden. “Vertrouwen in AI-tools kan alleen bestaan als er technologische waarborgen, transparantie, duidelijke regels en onafhankelijke controles zijn,” zegt Pierre Delcher, Head of Threat Research bij HarfangLab. “Ontbreekt één van die pijlers, dan kunnen kleine kwetsbaarheden uitgroeien tot systeemrisico’s.” Gemanipuleerde output kan daardoor impact hebben op besluitvorming en onderzoek.

AI cyberrisico’s bedreigen softwareontwikkeling

Aanvallers richten zich nu ook op het manipuleren van code die large language models genereren. Onderzoek toont dat cybercriminelen LLM’s kunnen beïnvloeden zodat deze onveilige of kwaadaardige code voorstellen aan ontwikkelaars. De AI-assistent wordt daarmee zelf onderdeel van de aanval. Bovendien verschuift de aanval van bestaande kwetsbaarheden naar het ontwikkelproces zelf. Wanneer gemanipuleerde code wordt overgenomen in applicaties of softwarebibliotheken, verspreidt de impact zich via de hele softwareketen. Net als bij eerdere grootschalige supply chain-aanvallen kan dit duizenden of zelfs miljoenen eindgebruikers raken. Volgens HarfangLab vraagt dit om extra waakzaamheid bij AI-ondersteunde ontwikkeling.

Phishing evolueert naar hypergepersonaliseerd model

Phishing blijft de meest zichtbare AI-gerelateerde dreiging, maar verandert fundamenteel van karakter. Waar gepersonaliseerde fraude voorheen handmatig en tijdrovend was, maakt AI het mogelijk om dit proces op grote schaal te automatiseren. Aanvallen beperken zich niet langer tot e-mail en sms, maar zetten ook spraak in via AI-gegenereerde stemmen. Hierbij kunnen aanvallers zich overtuigend voordoen als collega’s, leidinggevenden of leveranciers. Met de snelle verbetering van contentgeneratie wordt ook het gebruik van deepfakes laagdrempeliger. Daardoor wordt online oplichting geloofwaardiger en moeilijker te herkennen. HarfangLab constateert dat phishing evolueert naar een polymorf model waarin berichten automatisch worden aangepast aan het specifieke doelwit. Dit vergroot niet alleen de slagingskans, maar maakt detectie door traditionele filters aanzienlijk complexer.

Digitale aanvallen krijgen fysieke gevolgen

AI-systemen worden steeds meer geïntegreerd in operationele omgevingen zoals energiebeheer, logistiek en industriële automatisering. Eind 2025 meldden meerdere organisaties al risicovol gedrag van autonome AI-agenten, waaronder ongeautoriseerde toegang tot systemen. Het risico neemt toe nu deze AI-agenten direct processen in de fysieke wereld aansturen. Manipulatie kan leiden tot tastbare verstoringen zoals verkeerd aangestuurde industriële robots of ontregelde transportlijnen. De opkomst van ‘physical AI’, waaronder autonome magazijnsystemen en consumentgerichte robotica, verkleint de afstand tussen digitale instructie en fysieke actie. Volgens HarfangLab groeit daarmee de kans dat misbruik van AI concrete impact heeft op infrastructuur en bedrijfsprocessen. Dit vraagt om nieuwe beveiligingsstrategieën die rekening houden met de fysieke gevolgen van digitale aanvallen.

AI versterkt ook cybersecurity verdediging

Tegelijkertijd versterkt AI ook de verdedigingskant van cybersecurity. Machine learning en deep learning worden al jaren ingezet om afwijkend gedrag en onbekende dreigingen te identificeren. Sinds 2025 is een verschuiving zichtbaar naar generatieve AI als actieve assistent van security-analisten. Door de toename van professionele aanvallen groeit het aantal meldingen dat securityteams moeten beoordelen. AI wordt daarom ingezet om alerts te prioriteren en technische detectieregels te vertalen naar begrijpelijke taal. Ook genereert AI playbooks en automatiseert incident response-taken. “AI is aanwezig aan beide kanten: bij aanvallers én bij verdedigers,” zegt Hugo Michard, AI Lead bij HarfangLab. “Dat vraagt niet alleen om technologische innovatie, maar ook om transparantie en naleving van regelgeving zoals de AI Act.”

Kernfeiten

  • Bijna helft van Belgische bedrijven ziet AI-ondersteunde cybercrime als grootste bedreiging
  • Open source AI-modellen maken het steeds moeilijker feit van fictie te onderscheiden
  • Data poisoning en manipulatie van AI-trainingsdata vormen groeiend risico

Veelgestelde vragen

Is mijn MKB-bedrijf ook kwetsbaar voor AI-cyberaanvallen?

Ja, juist kleinere bedrijven zijn aantrekkelijk doelwit omdat ze vaak minder geavanceerde verdediging hebben. Hypergepersonaliseerde phishing-aanvallen richten zich op medewerkers met toegang tot gevoelige systemen, ongeacht bedrijfsgrootte. Begint met basic awareness-training en sterke authenticatie.

Wat zijn praktische stappen tegen AI-gedreven desinformatie en nepcontent?

Zorg ervoor dat medewerkers kritisch blijven tegen onverwachte verzoeken, zelfs van bekende contacten (deepfakes van e-mailaccounts bestaan). Implementeer verificatieprocedures voor geldtransfers en gevoelige besluiten. Overweeg tools die manipulatie van AI-gegenereerde inhoud kunnen detecteren.

Lees ook