Het kost een fraudeur minder dan 5 seconden aan publieke audio van een LinkedIn-video om de stem en het gezicht van je CEO te klonen.
In de tijd die je nodig had om deze zin te lezen, had er een fraudeaanval kunnen worden uitgevoerd op iemands financiële afdeling.
Is je betalingsfraudepreventie snel genoeg om een deepfake te detecteren?
En wat doe je nu om het op te sporen?
In deze blog geven we een overzicht van de verschillende soorten executive videofraude, de technieken die fraudeurs gebruiken en de belangrijkste rode vlaggen waar je op moet letten. Je leert ook hoe je AI kunt gebruiken om deze aanvallen te voorkomen voordat het geld je rekening verlaat.
Laten we erin duiken.
Belangrijkste opmerkingen
- Deepfake fraude met leidinggevenden veroorzaakte $410M aan verliezen in de eerste helft van 2025.
- Criminelen gebruiken gezichtsverwisselingen, stemverwisseling en technieken om live video's te manipuleren.
- AI-videosensoren kunnen kleine visuele en audiofouten opsporen die mensen over het hoofd zien, en ze doen dit direct.
- Als AI-video's worden gecontroleerd bij de goedkeuring van betalingen, kunnen nepvideo's worden geblokkeerd voordat er geld wordt verstuurd.
- De combinatie van AI-videocontroles met terugbelverificatie en dubbele goedkeuring verwijdert het zwakke punt waar de meeste fraudeaanvallen zich op richten.
- In 2026 vereist het stoppen van betalingsfraude geautomatiseerde AI-detectie. Menselijk inzicht alleen is niet meer genoeg.
Wat zijn Executive Videos Triggering Payments?
Uitvoerende video's die betalingen triggeren zijn opgenomen of live video's die vragen of suggereren dat een financieel teamlid geld moet verplaatsen.
Ze zijn er in drie soorten:
- Opnames goedkeuring CEO
Vooraf opgenomen video's waarin de CEO een transfer, betaling aan een leverancier of overname goedkeurt. Legitiem zijn ze voor audits of communicatie tussen verschillende tijdzones.
Maak je nooit meer zorgen over AI-fraude. TruthScan Kan je helpen:
- AI-opgewekt detecteren afbeeldingen, tekst, spraak en video.
- Vermijd grote AI-gestuurde fraude.
- Bescherm uw meest gevoelig bedrijfsmiddelen.
Voorbeeld van fraude: Aanvallers trainen AI op openbaar beeldmateriaal van CEO's (zoals LinkedIn, winstgesprekken, tv-interviews) en genereren een nepvideo waarin een betaling wordt goedgekeurd.
Financiën ziet het gezicht en de stem van de CEO, denkt dat het echt is en verwerkt de overdracht zonder vragen te stellen.
- CFO autorisatie video's
Live of opgenomen gesprekken met de CFO die grote transacties goedkeurt. CFO's zijn belangrijke doelwitten omdat hun goedkeuring de hoogste autoriteit met zich meebrengt.
- Interne financiële communicatie
Routinematig uitziende video's die via Slack of Teams worden verzonden om de standaard fraudepreventieprotocollen voor betalingen te omzeilen.
Voorbeeld van fraude:
Italiaanse executives (begin 2025) - €1M+ kwijt: Criminelen kloonden de stemmen en gezichten van meerdere leiders om een Italiaans directieteam te spoofen, wat leidde tot een verlies van meer dan €1 miljoen voordat de eerste deepfake detectie nog maar was uitgevoerd.

Groeiende dreiging van Deepfake Executive Fraude
Deepfake-gestuurde fraude door leidinggevenden explodeert. Verliezen getroffen $410M in de eerste helft van 2025, en mensen kunnen slechts een klein deel van dit aantal detecteren.
Laten we eens kijken naar enkele voorbeelden van fraude door leidinggevenden:
Arup, Hong Kong (feb 2024) - $25M verlies: Een financiële medewerker nam deel aan een videogesprek waarin haar CFO en collega's leken te zitten. Het gesprek was door AI gegenereerd met behulp van oude vergaderbeelden.
Ze maakte 15 overboekingen voor een totaalbedrag van HK$200M voordat ze de instructies bevestigde.
Singapore Multinational (mrt 2025) - $499K verlies: Een financieel directeur keurde een Zoom-gesprek goed met een door AI gegenereerde CFO en leiderschapsteam.
De doorschakeling ging door omdat de oproep was geformuleerd als een dringende acquisitie. Zonder een AI-videodetector had het menselijk oog gewoon geen kans.
Ferrari (juli 2024) - Aanval gestopt: Oplichters kloonden de stem van de CEO op WhatsApp om een vertrouwelijke overboeking aan te vragen. De leidinggevenden stelden een verificatievraag die AI niet kon beantwoorden. Er ging geen geld verloren.
Technieken waarmee fraudeurs video's manipuleren
| Techniek | Hoe het werkt | Waarom het gevaarlijk is |
| Gezicht verwisselen / Deepfake video | AI wordt getraind op video's van een leidinggevende en plaatst zijn gezicht op het lichaam van een andere persoon. Kan live of in opgenomen video's werken. | Ziet er heel echt uit. Omzeilt visuele deepfake detectie. |
| Stem klonen | AI kopieert de stem van een persoon aan de hand van een paar seconden audio uit interviews, gesprekken of toespraken. | Klinkt echt; maakt fraude door leidinggevenden moeilijk in twijfel te trekken |
| Gezichtsinjectie in real-time | Software vervangt het gezicht van een persoon tijdens een live videogesprek met behulp van een virtuele camera. | Maakt volledige live gesprekken mogelijk terwijl je verschijnt als de leidinggevende. |
| Nepvergaderingen voor meerdere personen | Aanvallers creëren een heel videogesprek met meerdere nepdeelnemers. | Het voelt geloofwaardiger omdat veel collega's het ermee eens lijken te zijn. |
| OSINT-onderzoek (onderzoek van openbare gegevens) | Fraudeurs verzamelen openbare video's, organigrammen en bedrijfsinformatie voordat ze aanvallen. | Maakt de poging tot uitvoerende fraude zeer gericht. |
| Platform en kanaal spoofing | Valse video's worden gecombineerd met valse e-mails, WhatsApp-accounts of chatberichten. | Meerdere kanalen laten de zwendel echter lijken. |
| Fraude-as-a-Service | Deepfake tools en scamkits worden goedkoop online verkocht. | Iedereen kan geavanceerde zwendelpraktijken uitvoeren. Zeer lage kosten, zeer hoge uitbetaling. |
Tekenen van mogelijk gemanipuleerde executive video's
Hier zijn enkele van de rode vlaggen die een betrouwbare deepfake detector automatisch kan herkennen:
Visuele tekens
- Knippert: Knippert te weinig of op rare momenten.
- Lip-sync: Mond en stem komen niet overeen.
- Randen van gezicht: Gezicht ziet er wazig of donzig uit rond haar/nek.
- Zijaanzicht: Gezicht ziet er verkeerd uit als ze hun hoofd draaien.
- Bevroren hoofd: Nek en schouders bewegen niet natuurlijk.
- Reflecties: Ogen of bril passen niet bij verlichting.
- Huid: Te glad of ziet er nep uit.
- Verlichting: Schaduwen passen niet bij de kamer.
- Handtest: Objecten voor het gezicht veroorzaken rare effecten.
Audio Signs
- Robotachtige stem: Te zuiver of onnatuurlijk.
- Vreemde pauzes: Vreemde aarzelingen bij het praten.
- Geen achtergrondgeluid: Geluid te perfect voor de kamer.
- Accent verandert: Stem klinkt een beetje vreemd voor mensen die hen kennen.
Gedrag en context
- Dringend + geheim: zet je onder druk om alleen snel te handelen.
- Verkeerd platform: Gebruikt persoonlijke apps om geautomatiseerde fraudedetectie te omzeilen.
- Geen dubbele controle: Vermijdt verificatie via officieel nummer.
- Regels overslaan: Negeert normale stappen ter voorkoming van betalingsfraude.
Snelle live testen
- Vraag ze om een zijaanzicht te laten zien.
- Kijk of hun gezicht haperingen vertoont.
- Hun tong uitsteken om fouten te ontdekken.
- Voer een live AI-videoverificatie uit door iets te vragen dat alleen zij kunnen weten.
- Beëindig het gesprek en bel het officiële nummer om te bevestigen.
Hoe AI Executive-videofraude kan detecteren
Onderzoeken tonen aan dat mensen deepfakes van hoge kwaliteit niet nauwkeurig kunnen identificeren, en de technologie ontwikkelt zich sneller dan menselijke training.
We moeten geavanceerde AI gebruiken om AI-gebaseerde fraude op te sporen;
- Deepfake-detector: Spot synthetische visuals
De Deepfake Detector van TruthScan beschermt financiële teams tegen videofraude door manipulaties te detecteren die mensen niet kunnen zien.
Subtiele manipulaties opvangen? → Detecteert kleine afwijkingen in gezicht, huid en belichting die realtime ogen zouden missen.
Natuurlijk gedrag verifiëren? → Markeert video's waarin AI er niet in slaagt echte menselijke bewegingen na te bootsen.
Moet ik het bestand zelf onderzoeken? → Onderzoekt digitale vingerafdrukken om te bewijzen of er met een video is geknoeid of dat deze door AI is gegenereerd.
Nepdeelnemers herkennen? → Signaleert door AI gegenereerde collega's in groepsgesprekken, waardoor social engineering-aanvallen worden voorkomen.
Real-time bescherming nodig? → Bewaakt videogesprekken terwijl ze plaatsvinden zodat verdachte verzoeken niet leiden tot betalingen.
Ondersteuning nodig voor geautomatiseerde workflows? → Verdachte video's worden automatisch gemarkeerd, vastgehouden of geëscaleerd, zodat financiële teams zich kunnen concentreren op echte bedreigingen.
Nauwkeurigheid op bedrijfsniveau nodig? → 99%+ detectie met betrouwbaarheidsscores en tijdstempels voor interne audits, fraudeonderzoeken en wettelijke rapportage.
- AI videodetector
De TruthScan AI-video detector scant elke betaling met videoverbinding voor goedkeuring en markeert verdachte inhoud met vertrouwensscores.
Nepbetalingen tegenhouden? → Pre-clearance gate houdt verdachte video's automatisch tegen zodat ze geen betaling genereren.
Moet u alle communicatie controleren? → TruthScan analyseert video, audio en tekst samen om gerelateerde instructies te vinden,
Ondersteuning voor grote volumes nodig? → API en bulkverwerking verwerken honderden video's zonder workflows te vertragen.
Bescherming voor live gesprekken nodig? → Browserextensie waarschuwt direct tijdens videogesprekken.
AI-fraude voorblijven? → Voortdurende updates vangen de nieuwste deepfakes.
Verificatie integreren in betalingsworkflows
Om betalingsfraude beter te voorkomen, kun je verificatie direct in je workflow integreren:
Stap 1: Pre-autorisatie videoscreening
AI controleert elke video via een Deepfake-detector voordat deze wordt goedgekeurd. Gemarkeerde video's gaan naar een menselijke beoordelaar.
Stap 2: Dubbele autorisatie
Betalingen met een hoge waarde vereisen twee onafhankelijke goedkeuringen van afzonderlijke kanalen.
Stap 3: Out-of-Band Callback
Bevestig instructies via een vertrouwd, apart kanaal zoals een telefoongesprek, geverifieerde Slack of persoonlijk.
Stap 4: Scoren op afwijkingen
Combineer risicosignalen (hoge waarde, nieuwe account, buiten kantooruren, urgentie, platform mismatch) met videoscore om extra verificatie te activeren.
Stap 5: Alleen geverifieerde kanalen
Sta betalingen alleen toe via goedgekeurde bedrijfsplatforms. Negeer persoonlijke e-mails, WhatsApp of niet-geverifieerde koppelingen.
Stap 6: C2PA-certificaten
Gebruik cryptografische handtekeningen in interne video's. Elke gemanipuleerde of AI-gegenereerde video faalt bij AI-videoverificatie.
Strategieën om bedrijfsvideofraude te verminderen
Dit is hoe organisaties zichzelf kunnen beschermen.
# 1 - Train financiële teams voor AI-impersonatie
Werknemers moeten gesimuleerde deepfake-aanvallen oefenen en leren verifiëren onder druk:
| Focus op training | Belang |
| Terugbelverificatie | Voorkomt dat aanvallers valse telefoonnummers of e-mails gebruiken |
| Live video controles | Tongbeweging, zijprofiel, occlusietests herkennen vervalsingen |
| Protocol voor vasthouden van betaling | Medewerkers kunnen transacties veilig pauzeren |
| Escalatieproces | Zorgt ervoor dat verdachte verzoeken snel bij de beveiliging terechtkomen |
# 2 - Veilige woorden voor verificatie
Vertrouw niet alleen op video, maar stel vooraf overeengekomen zinnen of uitdagingsvragen op om fraude met leidinggevenden te voorkomen:
- Alleen bekend bij een kleine, gedefinieerde groep.
- Als een leidinggevende dit niet kan geven, wordt de interactie beëindigd en de beveiliging gewaarschuwd.
- Heeft met succes echte aanvallen in de directiekamer tegengehouden.
# 3 - Beveilig de digitale voetafdruk van leidinggevenden
Openbare video's voeden deepfake AI-modellen. Beperk de blootstelling om bescherming te bieden tegen automatische fraudedetectie die wordt omzeild:
| Actie | Doel |
| Bestaande executive video's/audio controleren | Weet wat er online beschikbaar is voor het trainen van AI-modellen |
| Beperk opnamen met hoge resolutie en heldere belichting | Maakt het moeilijker voor aanvallers om realistische vervalsingen te maken |
| Uitvoerende briefing | Zorg ervoor dat het personeel begrijpt dat elke openbare opname potentieel aanvalsmateriaal is |
| Evenwichtige publieke aanwezigheid | Houd rekening met de behoeften van investeerders, pers en marketing, maar post bewust |
# 4 - Zero Trust toepassen voor financiële instructies
Vertrouw nooit alleen op video, spraak of e-mail. Verifieer altijd via een apart kanaal.
- Het beleid moet het personeel in staat stellen om betalingen te pauzeren, zelfs onder druk van de uitvoerende macht.
- Het wegnemen van urgentie en autoriteit breekt de psychologische invloed van de aanval af.
# 5 - Cyberverzekering en -testen
| Strategie | Doel |
| Verzekering met AI-fraudedekking | Beschermt tegen deepfake social engineering en bedrijfsonderbreking |
| Penetratietests & red team-oefeningen | Simuleert aanvallen om ervoor te zorgen dat callback- en verificatieprocessen in de praktijk werken |
# 6 - Voldoen aan nieuwe regelgeving
- EU AI-wet (aug 2025): Alle deepfakes moeten duidelijk gelabeld worden.
- US TAKE IT DOWN-wet: Strafbaarstelling van niet-consensuele intieme deepfakes.
- FinCEN-richtlijnen: Referentie FIN-2024-DEEPFAKEFRAUD bij het melden van verdachte activiteiten.
- Gereguleerde sectoren moeten maatregelen om fraude te voorkomen documenteren.
Hoe TruthScan de beveiliging van videobetalingen verbetert
TruthScan is een AI-fraudedetectieplatform dat meer dan 250 miljoen gebruikers beschermt tegen nepvideo's, -afbeeldingen, -audio en -tekst.
Het biedt zes belangrijke functies voor organisaties die betalingen via uitvoerende video beveiligen:
- Video's controleren bij de workflow gate
Het kan worden aangesloten op je betalings- en communicatiesystemen. Elke video wordt automatisch gescand, zodat je team alleen de video's bekijkt die verdacht lijken. - Volledige forensische analyse met logboeken
Elk resultaat wordt geleverd met een betrouwbaarheidsscore, tijdstempel en details. Dit geeft je een volledig controletraject voor naleving en onderzoeken.
- Altijd up-to-date AI-detectie
TruthScan deepfake detector werkt zijn modellen bij als er nieuwe AI-tools verschijnen. Je krijgt de nieuwste bescherming voordat fraudeurs je inhalen. - Fraude detecteren in alle kanalen
Het controleert niet alleen video. Audio, afbeeldingen, e-mails en chats worden allemaal geanalyseerd zodat gecoördineerde aanvallen worden opgepakt. - Gebouwd voor grote bedrijfsvolumes
Verwerkt moeiteloos grote hoeveelheden video's. Aangepaste modellen bereiken 99%+ nauwkeurigheid, zelfs voor zware werklasten. - Real-time bescherming tijdens gesprekken
Een browserwaarschuwing laat zien of een video nep is terwijl het gesprek plaatsvindt, voordat er wordt betaald.
Praat met TruthScan over het beschermen van betalingen tegen Deepfakes
Een enkele succesvolle deepfake aanval kan een organisatie $500.000 of meer kosten, terwijl de technologie om de aanval uit te voeren minder dan $2 kan kosten. Dat is de omvang van de bedreiging.
Je kunt enorme verliezen voorkomen door AI-gebaseerde videoverificatie direct op te nemen in goedkeuringsworkflows voor betalingen.
- Frauduleuze betalingsverzoeken stoppen voordat ze worden verwerkt
- Real-time gespreksbeveiliging voor uitvoerende machtiging
- Controlelogboeken voor naleving en onderzoek
- Voortdurende updates voor de nieuwste deepfake tools
TruthScan biedt hoogwaardige tools voor deepfake detectie en AI-videoverificatie. Met API-integratie kun je ervoor zorgen dat elke uitvoerende video wordt geverifieerd voordat er een betaling wordt gedaan.
Plan een demo of overleg met het TruthScan-team op Waarheidsscan.nl om uw blootstelling te beoordelen en een betalingsverificatiesysteem te ontwikkelen dat klaar is voor 2026.