Huis Meningen Kan iets ons beschermen tegen deepfakes? | Ben Dickson

Kan iets ons beschermen tegen deepfakes? | Ben Dickson

Inhoudsopgave:

Video: Reacting To My Deepfakes.. (November 2024)

Video: Reacting To My Deepfakes.. (November 2024)
Anonim

Eind 2017 rapporteerde Motherboard over een AI-technologie die gezichten in video's zou kunnen ruilen. Destijds produceerde de technologie - later deepfakes genoemd - ruwe, korrelige resultaten en werd meestal gebruikt om nepporno te maken met beroemdheden en politici.

Twee jaar later is de technologie enorm vooruitgegaan en moeilijker te detecteren met het blote oog. Samen met nepnieuws zijn vervalste video's een zorg voor de nationale veiligheid geworden, vooral nu de presidentsverkiezingen van 2020 naderen.

Sinds het ontstaan ​​van deepfakes hebben verschillende organisaties en bedrijven technologieën ontwikkeld om met AI geknoeide video's te detecteren. Maar er is een angst dat op een dag de deepfakes-technologie onmogelijk te detecteren zal zijn.

Onderzoekers van de Universiteit van Surrey hebben een oplossing ontwikkeld die het probleem zou kunnen oplossen: in plaats van te detecteren wat niet waar is, zal het bewijzen wat waar is. De technologie, Archangel genaamd, wordt gepland voor de komende conferentie over Computer Vision and Pattern Recognition (CVPR) en maakt gebruik van AI en blockchain om een ​​fraudebestendige digitale vingerafdruk voor authentieke video's te maken en te registreren. De vingerafdruk kan worden gebruikt als referentiepunt voor het verifiëren van de geldigheid van media die online worden verspreid of op televisie worden uitgezonden.

AI gebruiken om video's te ondertekenen

De klassieke manier om de authenticiteit van een binair document te bewijzen, is door een digitale handtekening te gebruiken. Uitgevers voeren hun document uit via een cryptografisch algoritme zoals SHA256, MD5 of Blowfish, dat een 'hash' produceert, een korte reeks bytes die de inhoud van dat bestand vertegenwoordigt en de digitale handtekening wordt. Als u op elk gewenst moment hetzelfde bestand door het hashing-algoritme uitvoert, wordt dezelfde hash geproduceerd als de inhoud ervan niet is gewijzigd.

Hashes zijn overgevoelig voor veranderingen in de binaire structuur van het bronbestand. Wanneer u een enkele byte in het gehashte bestand wijzigt en deze opnieuw door het algoritme voert, levert dit een totaal ander resultaat op.

Hoewel hashes goed werken voor tekstbestanden en toepassingen, vormen ze uitdagingen voor video's, die in verschillende formaten kunnen worden opgeslagen, volgens John Collomosse, professor computer vision aan de Universiteit van Surrey en projectleider voor Archangel.

"We wilden dat de handtekening hetzelfde zou zijn, ongeacht de codec waarmee de video wordt gecomprimeerd", zegt Collomosse. "Als ik mijn video maak en converteer van bijvoorbeeld MPEG-2 naar MPEG-4, dan zal dat bestand een totaal andere lengte hebben en zullen de bits volledig zijn veranderd, wat een andere hash zal produceren. Wat we nodig hadden was een inhoudbewust hashing-algoritme."

Om dit probleem op te lossen, hebben Collomosse en zijn collega's een diep neuraal netwerk ontwikkeld dat gevoelig is voor de inhoud van de video. Diepe neurale netwerken zijn een soort AI-constructie die zijn gedrag ontwikkelt door de analyse van grote hoeveelheden voorbeelden. Interessant is dat neurale netwerken ook de technologie vormen in het hart van deepfakes.

Bij het maken van deepfakes voedt de ontwikkelaar het netwerk met foto's van het gezicht van een onderwerp. Het neurale netwerk leert de kenmerken van het gezicht kennen en wordt bij voldoende training in staat om gezichten in andere video's te vinden en te verwisselen met het gezicht van het onderwerp.

Het neurale netwerk van Archangel is getraind op de video die het afneemt. "Het netwerk kijkt naar de inhoud van de video in plaats van de onderliggende bits en bytes, " zegt Collomosse.

Wanneer je na de training een nieuwe video via het netwerk uitvoert, wordt deze gevalideerd wanneer deze dezelfde inhoud als de bronvideo bevat, ongeacht het formaat, en wordt deze afgewezen wanneer het een andere video is of is geknoeid of bewerkt.

Volgens Collomosse kan de technologie zowel ruimtelijke als tijdelijke manipulatie detecteren. Ruimtelijke manipulatie is een wijziging in afzonderlijke frames, zoals de face-swapping-bewerkingen in deepfakes.

Maar deepfakes zijn niet de enige manier waarop met video's kan worden geknoeid. Minder besproken maar even gevaarlijk zijn opzettelijke wijzigingen die zijn aangebracht in de reeks frames en in de snelheid en duur van de video. Een recente, wijd verspreide geknoeide video van House Speaker Nancy Pelosi maakte geen gebruik van deepfakes, maar werd gemaakt door zorgvuldig gebruik te maken van eenvoudige bewerkingstechnieken die haar verward leken.

"Een van de vormen van geknoei die we kunnen detecteren, is het verwijderen van korte segmenten van de video. Dit zijn tijdelijke sabotages. En we kunnen tot drie seconden geknoei detecteren. Dus als een video enkele uren lang is en je gewoon drie seconden van die video kunnen we dat detecteren, "zegt Collomosse, eraan toevoegend dat Archangel ook veranderingen zal detecteren die zijn aangebracht in de snelheid van de originele video, zoals werd gedaan in de Pelosi-video.

De vingerafdruk registreren op de Blockchain

Het tweede onderdeel van het Archangel-project is een blockchain, een fraudebestendige database waar nieuwe informatie kan worden opgeslagen, maar niet kan worden gewijzigd - ideaal voor video-archieven die geen wijzigingen aanbrengen in video's nadat ze zijn geregistreerd.

Blockchain-technologie ligt ten grondslag aan digitale valuta's zoals Bitcoin en Ether. Het is een digitaal grootboek dat wordt beheerd door verschillende onafhankelijke partijen. De meerderheid van de partijen moet akkoord gaan met wijzigingen die zijn aangebracht in de blockchain, waardoor het voor een enkele partij onmogelijk is om zich eenzijdig met het grootboek te bemoeien.

Het is technisch mogelijk om de inhoud van een blockchain aan te vallen en te wijzigen als meer dan 50 procent van de deelnemers samenspannen. Maar in de praktijk is het extreem moeilijk, vooral wanneer de blockchain wordt onderhouden door veel onafhankelijke partijen met verschillende doelen en interesses.

De blockchain van Archangel verschilt een beetje van de publieke blockchain. Ten eerste produceert het geen cryptocurrency en slaat het alleen de identifier, de inhoudbewuste vingerafdruk en de binaire hash van het verificerende neurale netwerk op voor elke video in een archief (blockchains zijn niet geschikt voor het opslaan van grote hoeveelheden gegevens, dat is waarom de video zelf en het neurale netwerk worden off-chain opgeslagen).

Het is ook een geautoriseerde of "privé" blockchain. Dit betekent dat in tegenstelling tot Bitcoin-blockchain, waar iedereen nieuwe transacties kan opnemen, alleen gemachtigde partijen nieuwe records op de Archangel-blockchain kunnen opslaan.

Archangel wordt momenteel getest door een netwerk van nationale overheidsarchieven uit het Verenigd Koninkrijk, Estland, Noorwegen, Australië en de VS: om nieuwe informatie op te slaan, moet elk betrokken land de toevoeging onderschrijven. Maar hoewel alleen de nationale archieven van de deelnemende landen het recht hebben om records toe te voegen, heeft alle anderen leestoegang tot de blockchain en kunnen deze gebruiken om andere video's tegen het archief te valideren.

  • AI en machine learning benutten, Deepfakes, nu moeilijker te detecteren AI en machine learning benutten, Deepfakes, nu moeilijker te detecteren
  • Deepfake-video's zijn er en we zijn nog niet klaar Deepfake-video's zijn er en we zijn niet klaar
  • De nieuwe AI van Adobe detecteert gezichten met Photoshopped De nieuwe AI van Adobe detecteert gezichten met Photoshopped

"Dit is een toepassing van blockchain voor het algemeen belang", zegt Collomosse. "Naar mijn mening is het enige redelijke gebruik van de blockchain wanneer je onafhankelijke organisaties hebt die elkaar niet noodzakelijk vertrouwen, maar ze hebben wel een gevestigde interesse in dit collectieve doel van wederzijds vertrouwen. En wat we willen doen is beveilig de nationale archieven van de overheid over de hele wereld, zodat we hun integriteit kunnen waarborgen met behulp van deze technologie."

Omdat het maken van vervalste video's eenvoudiger, sneller en toegankelijker wordt, heeft iedereen alle hulp nodig die hij kan krijgen om de integriteit van zijn video-archieven te waarborgen - vooral overheden.

"Ik denk dat deepfakes bijna als een wapenwedloop zijn, " zegt Collomosse. "Omdat mensen steeds meer overtuigende deepfakes produceren en op een dag misschien onmogelijk wordt om ze te detecteren. Daarom kun je het beste proberen de herkomst van een video te bewijzen."

Kan iets ons beschermen tegen deepfakes? | Ben Dickson