De Deepfake Rekening: Waarom de Volgende Beveiligingsslag van Crypto Tegen Synthetische Mensen Zal Zijn
Cryptoplatforms moeten proactieve, gelaagde verificatie-architecturen implementeren die niet stoppen bij het onboarden, maar continu identiteit, intentie en transactie-integriteit valideren gedurende de gehele gebruikersreis, aldus Ilya Broven, chief growth officer bij Sumsub.

Generatieve AI heeft de economie van misleiding veranderd. Wat vroeger professionele tools en uren bewerking vereiste, kan nu met een paar klikken worden gedaan. Een realistisch nepgezicht, een gekloonde stem, of zelfs een volledige video-identiteit kan binnen enkele minuten worden gegenereerd en worden gebruikt om verificatiesystemen te passeren die ooit onfeilbaar leken.
In het afgelopen jaar heb ik bewijs gezien dat door deepfake aangedreven fraude zich versnelt in een tempo waarvoor de meeste organisaties niet zijn voorbereid. Deepfake-inhoud op digitale platforms groeide met 550% tussen 2019 en 2024, en wordt nu beschouwd als een van de belangrijkste mondiale risico’s in het huidige digitale ecosysteem. Dit is niet alleen een technologische verschuiving — het is een structurele uitdaging voor hoe wij identiteit verifiëren, intentie authenticeren, en vertrouwen behouden in digitale financiën.
Adoptie loopt voor op beveiliging
De adoptie van crypto in de VS blijft toenemen, gedreven door een groeiende regulatorische duidelijkheid, sterke marktprestaties en een verhoogde institutionele deelname. De goedkeuring van spot Bitcoin ETF's en duidelijkere nalevingskaders hebben bijgedragen aan de legitimatie van digitale activa voor zowel particuliere als professionele beleggers. Hierdoor beschouwen meer Amerikanen crypto als een gangbare beleggingsklasse — maar het tempo van adoptie overtreft nog steeds het begrip van het publiek omtrent risico en veiligheid.
Veel gebruikers vertrouwen nog steeds op verouderde verificatiemethoden ontworpen voor een tijdperk waarin fraude een gestolen wachtwoord betekende, niet een synthetisch persoon. Naarmate AI-generatiehulpmiddelen sneller en goedkoper worden, is de drempel voor fraude bijna tot nul gedaald, terwijl veel verdedigingsmechanismen niet in hetzelfde tempo zijn meegeëvolueerd.
Deepfakes worden gebruikt in uiteenlopende vormen, van namaak influencer-livestreams die gebruikers misleiden om tokens naar oplichters te sturen, tot AI-gegenereerde video-ID’s die verificatiecontroles omzeilen. We zien een toename van multimodale aanvallen, waarbij oplichters deepfake-video’s, synthetische stemmen en vervalste documenten combineren om complete valse identiteiten te creëren die standhouden onder nauwkeurige controle.
Zoals journalist en podcaster Dwarkesh Patel opmerkte in zijn boek, “The Scaling Era: An Oral History of AI, 2019-2025”, is dit nu het tijdperk van Scaling Fraud. De uitdaging is niet alleen de verfijning, maar ook de schaal. Wanneer iedereen met consumentvriendelijke software een realistische fake kan creëren, werkt het oude model van “het spotten van de fake” niet langer.
Waarom de huidige verdedigingsmechanismen falen
De meeste verificatie- en authenticatiesystemen zijn nog steeds afhankelijk van oppervlakkige signalen: oogknipperingen, hoofdbewegingen en lichtpatronen. Maar moderne generatieve modellen repliceren deze micro-expressies met bijna perfecte nauwkeurigheid — en verificatiepogingen kunnen nu worden geautomatiseerd met agenten, waardoor aanvallen sneller, slimmer en moeilijker te detecteren zijn.
Met andere woorden, visuele realiteit kan niet langer de maatstaf voor waarheid zijn. De volgende fase van bescherming moet verder gaan dan wat zichtbaar is en zich richten op gedrags- en contextuele signalen die niet nagebootst kunnen worden. Apparaatpatronen, typritmes en micro-latentie in reacties worden de nieuwe vingerafdrukken van authenticiteit. Uiteindelijk zal dit zich uitbreiden naar een vorm van fysieke autorisatie — van digitale ID’s tot geïmplanteerde identificatoren, of biometrische methoden zoals iris- of handpalmherkenning.
Er zullen uitdagingen zijn, vooral naarmate we ons meer op ons gemak voelen bij het autoriseren van autonome systemen om namens ons te handelen. Kunnen deze nieuwe signalen worden nagebootst? Technisch gezien wel — en dat is wat van dit een voortdurende wapenwedloop maakt. Terwijl verdedigers nieuwe lagen van gedragsbeveiliging ontwikkelen, zullen aanvallers onvermijdelijk leren ze te repliceren, wat een constante evolutie aan beide kanten afdwingt.
Als AI-onderzoekers moeten we ervan uitgaan dat wat we zien en horen gefabriceerd kan zijn. Onze taak is om de sporen te vinden die fabricage niet kan verbergen.
De volgende evolutie: vertrouwensinfrastructuur
Het komende jaar zal een keerpunt markeren voor regelgeving, aangezien het vertrouwen in de crypto-sector kwetsbaar blijft. Met de GENIUS-wet die nu wet is en andere kaders zoals de CLARITY-wet nog in bespreking, verschuift het echte werk naar het dichten van de lacunes die de regelgeving nog niet heeft aangepakt — van grensoverschrijdende handhaving tot het definiëren van wat zinvolle consumentenbescherming inhoudt in gedecentraliseerde systemen. Beleidsmakers beginnen digitale activaregels op te stellen die prioriteit geven aan verantwoordelijkheid en veiligheid, en naarmate aanvullende kaders vorm krijgen, beweegt de industrie langzaam naar een transparantere en veerkrachtigere ecosysteem.
Maar regelgeving alleen zal het vertrouwensprobleem niet oplossen. Crypto-platforms moeten proactieve, gelaagde verificatiearchitecturen aannemen die niet stoppen bij de onboarding, maar gedurende de hele gebruikersreis continu identiteit, intentie en transactie-integriteit valideren.
Vertrouwen zal niet langer afhangen van wat er echt uitziet, maar van wat bewezen kan worden dat echt is. Dit markeert een fundamentele verschuiving die de infrastructuur van financiën opnieuw definieert.
Een gedeelde verantwoordelijkheid
Vertrouwen kan niet achteraf worden ingebouwd; het moet vanaf het begin zijn geïntegreerd. Aangezien de meeste fraude plaatsvindt na het onboardingproces, hangt de volgende fase af van het overschrijden van statische identiteitscontroles naar continue, meervoudige preventie. Het koppelen van gedragsindicatoren, cross-platform intelligence en realtime anomaliedetectie zal essentieel zijn om het vertrouwen van gebruikers te herstellen.
De toekomst van crypto zal niet worden bepaald door het aantal gebruikers, maar door het aantal mensen dat zich veilig voelt bij het gebruik ervan. Groei hangt nu af van vertrouwen, verantwoordelijkheid en bescherming in een digitale economie waar de grens tussen echt en synthetisch steeds meer vervaagt.
Op een gegeven moment zullen onze digitale en fysieke identiteiten nog verder moeten samensmelten om ons te beschermen tegen imitatie.
Opmerking: De in deze column geuite meningen zijn die van de auteur en weerspiegelen niet noodzakelijkerwijs die van CoinDesk, Inc. of zijn eigenaren en gelieerde ondernemingen.
More For You
Protocol Research: GoPlus Security

알아야 할 것:
- As of October 2025, GoPlus has generated $4.7M in total revenue across its product lines. The GoPlus App is the primary revenue driver, contributing $2.5M (approx. 53%), followed by the SafeToken Protocol at $1.7M.
- GoPlus Intelligence's Token Security API averaged 717 million monthly calls year-to-date in 2025 , with a peak of nearly 1 billion calls in February 2025. Total blockchain-level requests, including transaction simulations, averaged an additional 350 million per month.
- Since its January 2025 launch , the $GPS token has registered over $5B in total spot volume and $10B in derivatives volume in 2025. Monthly spot volume peaked in March 2025 at over $1.1B , while derivatives volume peaked the same month at over $4B.
More For You
De VAE Reguleert Niet Alleen Tokenisering — Ze Bouwen Hun Economie Eromheen

Terwijl andere rechtsgebieden aarzelen in het regelgevingsdebat, institutionaliseert de VAE tokenisering en maakt dit tot een kernonderdeel van haar economische infrastructuur, aldus de CEO van MidChains.









