Deepfake-oplichtingen vormen een bedreiging voor de mensheid — Dit is hoe u zich kunt verweren
Zero-knowledge proofs voegen een cruciale integriteitslaag toe aan AI-moderatie, waardoor bedrijven beslissingen kunnen verifiëren zonder gevoelige gegevens of propriëtaire modellen bloot te geven, zegt Ismael Hishon-Rezaizadeh, CEO & oprichter van Lagrange.

Wat u moet weten:
- De politie van Hong Kong heeft een cryptocurrency-zwendel van $46 miljoen opgerold waarbij geavanceerde deepfake-technologie werd gebruikt.
- Door AI gegenereerde deepfakes worden nu beschouwd als een grote bedreiging voor de nationale veiligheid en financiële systemen.
- Zero-knowledge machine learning biedt een veelbelovende oplossing voor verifieerbare en efficiënte contentmoderatie.
Vorig jaar, De politie in Hong Kong heeft een groep gearresteerd die verantwoordelijk is voor een cryptocurrency-investeringszwendel van $46 miljoen waarbij deepfake-technologie werd gebruikt. De groep werkte samen met buitenlandse zwendelnetwerken om geloofwaardige nep-investeringsplatformen te creëren. Tegenwoordig zijn deze tools exponentieel geavanceerder geworden en strekken ze zich uit tot AI-gegenereerde video’s, die zich veel sneller ontwikkelen dan welke andere vorm van media ook.
Kwaadaardige AI droeg bij aan meer dan $12 miljard aan wereldwijde verliezen tegen fraude in 2024. Het U.S. Department of Homeland Security oproepen AI-gegenereerd deepfakes een “duidelijke, actuele en zich ontwikkelende dreiging” voor nationale veiligheid, financiën en samenleving. Denemarken overweegt haar auteursrechtwetgeving te wijzigen om onrechtmatige deepfakes tegen te gaan, waarbij iedere persoon “het recht krijgt op het eigen lichaam, gelaatstrekken en stem.”
Deepfakes vormen duidelijk een toenemende maatschappelijke dreiging. Om de digitale wereld te verdedigen, hebben we AI nodig die verifieerbaar is en contentmoderatie die wordt ondersteund door cryptografisch bewijs, en niet alleen vertrouwen. Zero-knowledge machine learning (zkML)-technieken openen nieuwe wegen om aan te tonen dat outputs geldig zijn, zonder het onderliggende model of de data bloot te leggen.
De huidige moderatie is gebroken
Hedendaagse contentmoderatie heeft moeite om gelijke tred te houden met AI-manipulatie. Wanneer een stuk kwaadaardige content op meerdere platformen wordt geüpload, moet elk platform die dubbele content onafhankelijk opnieuw classificeren, wat leidt tot verspilling van rekenkracht en extra latency.
Erger nog, de algoritmen en beleid van elk platform kunnen verschillen, en een video die op de ene site wordt gemarkeerd, kan op een andere als onschuldig worden beschouwd. Het gehele proces ontbreekt het aan transparantie, en de AI-besluitvorming van de platforms bevindt zich in een “black box.” Gebruikers weten zelden waarom iets is verwijderd of toegestaan.
Deze gefragmenteerde benadering van moderatie maakt het voor detectietools moeilijker om goed te presteren. Een studie gevonden dat de nauwkeurigheid van detectiemodellen “sterk afneemt” bij echte wilde gegevens, waarbij deze soms degradeert tot willekeurig raden wanneer ze worden geconfronteerd met nieuwe deepfakes.
Bedrijven zijn zorgwekkend ondervoorbereid, waarbij 42% van de ondernemingen toegeven zij zijn slechts "enigszins zeker" van hun vermogen om deepfakes te herkennen. Het constant opnieuw scannen van content en het najagen van nieuwe vervalsingen is een verloren strijd. We hebben een systemische oplossing nodig die moderatieresultaten overdraagbaar, betrouwbaar en efficiënt maakt over het hele web.
Oplossing: Verifieerbare Moderatie
Zero-knowledge Machine Learning (zkML) biedt een methode om AI-gebaseerde moderatiebeslissingen te valideren zonder dubbel werk te creëren of gevoelige informatie prijs te geven. Het idee is dat AI-classifiers niet alleen een label produceren, maar ook een cryptografisch bewijs van die classificatie.
Stel je een moderatiemodel voor dat een stuk inhoud (een afbeelding, video, tekst, enz.) beoordeelt en er een of meerdere labels aan toekent (bijvoorbeeld, Veilig voor Werk, Niet Veilig voor Werk, Gewelddadig, Pornografisch, enz.). Naast de labels genereert het systeem een zero-knowledge bewijs waaruit blijkt dat een bekend AI-model de inhoud heeft verwerkt en die classificatieresultaten heeft geproduceerd. Dit bewijs wordt ingebed in de metadata van de inhoud, waardoor de inhoud zelf een manipulatiebestendig moderatiekeurmerk draagt. Inhoudsproducenten of -distributeurs kunnen ook cryptografisch verbonden worden aan de moderatiestatus van hun inhoud.
Wanneer de inhoud wordt geüpload of gedeeld, kunnen platforms onmiddellijk het bewijs verifiëren met behulp van lichtgewicht cryptografische controles. Als het bewijs geldig is, vertrouwt het platform op de verstrekte classificatie zonder opnieuw zijn eigen AI-analyse uit te voeren.
Voordelen van ZK-Ingebedde Moderatie
Laten we nadenken over de voordelen hier. Het verifiëren van een bewijs is veel sneller en eenvoudiger dan het uitvoeren van een groot AI-model bij elke upload. Ten eerste hebben we de draagbaarheid van contentmoderatie, waarbij de status met de content kan meereizen. Daarnaast waarborgen we transparantie door openlijk verifieerbare resultaten, waardoor iedereen het cryptografische bewijs kan verifiëren en bevestigen hoe de content is gelabeld.
In dit scenario wordt moderatie een eenmalige berekening per inhoudsitem, waarbij latere controles worden teruggebracht tot goedkope bewijsverificaties. Dit alles vertaalt zich in enorme besparingen op rekencapaciteit, lagere latentie bij het leveren van content, en meer AI-middelen om zich te richten op echt nieuwe of betwiste inhoud.
Naarmate AI-gegenereerde inhoud blijft exploderen, kan zk-gestuurde moderatie de schaal aan. Deze benadering verlicht de belasting van platforms, waardoor moderatie gelijke tred kan houden met streams met een hoog volume in realtime.
De Integriteitslaag voor AI
Zero-knowledge proofs bieden de ontbrekende integriteitslaag die AI-gebaseerde moderatie nodig heeft. Ze stellen ons in staat te bewijzen dat AI-beslissingen (zoals inhoudsklassificaties) correct zijn genomen, zonder gevoelige input of de interne werking van het model bloot te geven. Dit betekent dat bedrijven moderatiebeleid kunnen handhaven en betrouwbare resultaten met elkaar, of het publiek, kunnen delen, terwijl ze tegelijkertijd de privacy van gebruikers en propriëtaire AI-logica beschermen.
Het verankeringsproces van verifieerbaarheid op inhoudsniveau kan ondoorzichtige en overbodige moderatiesystemen transformeren in een gedecentraliseerd, cryptografisch verifieerbaar vertrouwensnetwerk. In plaats van te vertrouwen op platforms die zeggen “vertrouw op onze AI-filters,” kunnen moderatieresultaten worden geleverd met wiskundige garanties. Als we dit soort schaalbare verifieerbaarheid nu niet integreren, kunnen AI-gedreven manipulatie en desinformatie de laatste restjes online vertrouwen ondermijnen.
We kunnen AI-moderatie nog steeds transformeren van een daad van vertrouwen naar een daad van bewijs — en daarmee niet alleen het vertrouwen in platforms herstellen, maar ook in de informatie-ecosystemen die het publieke discours, verkiezingen en ons gedeeld gevoel van realiteit vormen.
Opmerking: De in deze column geuite meningen zijn die van de auteur en weerspiegelen niet noodzakelijkerwijs die van CoinDesk, Inc. of zijn eigenaren en gelieerde ondernemingen.
More For You
Protocol Research: GoPlus Security

What to know:
- As of October 2025, GoPlus has generated $4.7M in total revenue across its product lines. The GoPlus App is the primary revenue driver, contributing $2.5M (approx. 53%), followed by the SafeToken Protocol at $1.7M.
- GoPlus Intelligence's Token Security API averaged 717 million monthly calls year-to-date in 2025 , with a peak of nearly 1 billion calls in February 2025. Total blockchain-level requests, including transaction simulations, averaged an additional 350 million per month.
- Since its January 2025 launch , the $GPS token has registered over $5B in total spot volume and $10B in derivatives volume in 2025. Monthly spot volume peaked in March 2025 at over $1.1B , while derivatives volume peaked the same month at over $4B.
More For You
De dollar brokkelt af. Door fiat gesteunde stablecoins zijn de volgende

Een mogelijke oplossing is een nieuw soort stablecoin waarvan de waarde is gekoppeld aan een fysieke, reëel aanwezige goudvoorraad, betoogt Stephen Wundke van Algoz.










