Nieuwe vorm van oplichting: stemmen klonen met behulp van AI

Al geruime tijd kunnen we met behulp van AI-technologie bestaand beeld en geluid digitaal manipuleren. De technologie wordt alsmaar beter, waardoor de manipulaties amper van echt te onderscheiden zijn. Een ontwikkeling waar mensen met vervelende of illegale bedoelingen helaas ook steeds meer gebruik van maken.

Het gebruik van deepfake-video’s om nepnieuws te verspreiden, mensen te kwetsen of op te lichten 
is al wat langer bekend. Het kopiëren van stemmen, voice cloning, met het doel mensen op te lichten 
zien we nu ook steeds vaker voorkomen. 

Software en apps om stemmen te kopiëren zijn makkelijk beschikbaar en te gebruiken, waardoor 
iedereen zo’n digitale manipulatie kan maken. Criminelen zetten deze steeds vaker in om mensen op 
te lichten en geld afhandig te maken. Het enige wat ze hiervoor nodig hebben is een kort fragment 
van iemands stem, een paar seconden is genoeg. Deze vinden ze op social media of nemen ze op 
tijdens een telefoongesprek.

De allerbelangrijkste tip: maak nooit zomaar geld over, zelfs niet aan een goede bekende. Belt een 
bekende en vraagt diegene je om direct geld naar ze over te maken? Wees dan alert. Hang op, bel 
diegene terug op het nummer dat je van ze hebt opgeslagen en vraag door. Blijkt deze persoon jou 
niet gebeld te hebben, schakel dan de politie in.

Geef als eerste een reactie

Geef een reactie

Uw e-mailadres wordt niet gepubliceerd.


*