Inhoudsopgave:
- Hoe Deepfakes worden gemaakt
De gevolgen van Deepfakes- Niet alle Deepfakes zijn slecht
Hoe Deepfake-video's te detecteren- Op zoek naar Deepfakes
Video: New Face Swapping AI Creates Amazing DeepFakes (November 2024)
Terwijl we het volgende seizoen van de presidentiële verkiezingscampagne ingaan, wil je oppassen voor de potentiële gevaren die nep-online video's opleveren door het gebruik van kunstmatige intelligentie (AI) en machine learning (ML). Met behulp van AI-software kunnen mensen deepfake-video's (afkorting voor 'deep learning and fake') maken waarin ML-algoritmen worden gebruikt om een face-swap uit te voeren om de illusie te wekken dat iemand iets zei dat ze niet hebben gezegd of iemand die ze zijn ' opnieuw niet. Deepfake-video's worden weergegeven in verschillende arena's, van entertainment tot politiek tot het bedrijfsleven. Deepfake-video's kunnen niet alleen een oneerlijke invloed hebben op een verkiezing met valse berichten, maar ze kunnen ook persoonlijke schaamte veroorzaken of misleidende merkboodschappen veroorzaken als ze bijvoorbeeld een CEO laten zien die een productlancering of een acquisitie aankondigt die eigenlijk niet is gebeurd.
Deepfakes maken deel uit van een categorie van AI genaamd "Generative Adversarial Networks" of GAN's, waarin twee neurale netwerken concurreren om foto's of video's te maken die er echt uitzien. GAN's bestaan uit een generator, die een nieuwe set gegevens zoals een nepvideo maakt, en een discriminator, die een ML-algoritme gebruikt om gegevens uit de echte video te synthetiseren en te vergelijken. De generator blijft proberen de nepvideo te synthetiseren met de oude totdat de discriminator niet kan zien dat de gegevens nieuw zijn.
Zoals Steve Grobman, Senior Vice President en Chief Technology Officer (CTO) van McAfee, wees op de RSA Conference 2019 in maart in San Francisco, zijn nepfoto's er al sinds de uitvinding van de fotografie. Hij zei dat het wijzigen van foto's een eenvoudige taak was die u kunt uitvoeren in een toepassing zoals Adobe Photoshop. Maar nu gaan dit soort geavanceerde bewerkingsmogelijkheden ook over naar video, en ze doen dit met behulp van zeer capabele en gemakkelijk toegankelijke softwaretools.
Hoe Deepfakes worden gemaakt
Hoewel het begrijpen van AI-concepten nuttig is, is het niet nodig om een datawetenschapper te zijn om een deepfake-video te maken. Volgens Grobman zijn er gewoon wat online instructies nodig. Op de RSA Conference 2019 (zie video hierboven) onthulde hij een deepfake-video samen met Dr. Celeste Fralick, Chief Data Scientist en Senior Principal Engineer bij McAfee. De deepfake-video illustreerde de dreiging die deze technologie met zich meebrengt. Grobman en Fralick laten zien hoe een ambtenaar in een video die iets gevaarlijks zegt het publiek kan misleiden door te denken dat de boodschap echt is.
Voor het maken van hun video hebben Grobman en Fralick deepfake-software gedownload. Ze namen vervolgens een video van Grobman die getuigde voor de Amerikaanse senaat in 2017 en legden de mond van Fralick op die van Grobman.
"Ik gebruikte vrij beschikbare openbare commentaren door een ML-model te maken en te trainen; waarmee ik een deepfake-video kon ontwikkelen met mijn woorden die uit de mond kwamen", vertelde Fralick het RSA-publiek van het podium. Fralick zei verder dat deepfake-video's konden worden gebruikt voor sociale uitbuiting en informatieoorlog.
Om hun deepfake-video te maken, gebruikten Grobman en Fralick een tool die een Reddit-gebruiker FakeApp ontwikkelde, die ML-algoritmen en foto's gebruikt om gezichten op video's te verwisselen. Tijdens hun RSA-presentatie legde Grobman de volgende stappen uit. "We splitsen de video's in stilstaande beelden, we hebben de gezichten geëxtraheerd en we hebben ze opgeruimd door ze te sorteren en op te ruimen op Instagram."
Met Python-scripts kon het McAfee-team mondbewegingen opbouwen om de spraak van Fralick te laten overeenkomen met de mond van Grobman. Vervolgens moesten ze enkele aangepaste scripts schrijven. De uitdaging bij het creëren van een overtuigende deepfake is wanneer kenmerken zoals geslacht, leeftijd en huidskleur niet overeenkomen, zei Grobman.
Hij en Fralick gebruikten vervolgens een laatste AI-algoritme om de beelden van Grobman die vóór de Senaat getuigde te matchen met de toespraak van Fralick. Grobman voegde eraan toe dat het 12 uur duurde om deze ML-algoritmen te trainen.
McAfee schetste de stappen die het nam om een deepfake-video te maken die op de RSA-conferentie van 2019 werd getoond. Het gebruikte deepfake software genaamd FakeApp en training van ML-modellen om video van Grobman te wijzigen met spraak van Fralick. (Afbeelding tegoed: McAfee).
De gevolgen van Deepfakes
Door hackers gecreëerde deepfake-video's kunnen veel problemen veroorzaken - van overheidsfunctionarissen die valse verkeerde informatie verspreiden tot beroemdheden die zich schamen dat ze niet in video's zitten die ze echt niet koesterden bij bedrijven die het beursklassement van concurrenten beschadigen. Zich bewust van deze problemen stuurde de wetgever in september een brief aan Daniel Coats, de Amerikaanse directeur van de nationale inlichtingendienst, om een herziening te vragen van de dreiging die deepfakes vormen. De brief waarschuwde dat landen zoals Rusland deepfakes op sociale media zouden kunnen gebruiken om valse informatie te verspreiden. In december hebben wetgevers de Malicious Deep Fake Prohibition Act van 2018 geïntroduceerd om fraude te verbieden in verband met 'audiovisuele platen', die verwijzen naar deepfakes. Het valt nog te bezien of de rekening zal slagen.
Zoals gezegd, kunnen beroemdheden schamen voor video's waarin hun gezichten over de gezichten van pornosterren heen zijn gelegd, zoals het geval was bij Gal Gadot. Of stel je een CEO voor die zogenaamd productnieuws aankondigt en de voorraad van een bedrijf laat zinken. Beveiligingsprofessionals kunnen ML gebruiken om dit soort aanvallen te detecteren, maar als ze niet op tijd worden gedetecteerd, kunnen ze onnodige schade toebrengen aan een land of een merk.
"Met deepfakes, als je weet wat je doet en je weet op wie je je moet richten, kun je echt een overtuigende video bedenken om een merk veel schade toe te brengen, " zei Dr. Chase Cunningham, hoofdanalist bij Forrester Research. Hij voegde eraan toe dat, als je deze berichten op LinkedIn of Twitter verspreidt of gebruik maakt van een bot-formulier, "je de voorraad van een bedrijf kunt verpletteren op basis van totale nepvideo's zonder een tijdje veel moeite."
Via deepfake-video's kunnen consumenten worden misleid om te geloven dat een product iets kan doen dat niet kan. Cunningham merkte op dat, als de CEO van een grote autofabrikant in een nepvideo zou zeggen dat het bedrijf niet langer voertuigen op gas zou produceren en dat bericht vervolgens op Twitter of LinkedIn zou verspreiden in die video, dat die actie een merk gemakkelijk zou kunnen beschadigen.
"Interessant genoeg uit mijn onderzoek nemen mensen beslissingen in 37 seconden op basis van koppen en video's, " zei Cunningham. "Dus je kunt je voorstellen dat als je een video kunt krijgen die langer is dan 37 seconden, je mensen een beslissing kunt laten nemen op basis van feitelijk of niet. En dat is angstaanjagend."
Aangezien sociale media een kwetsbare plaats zijn waar deepfake-video's viral kunnen worden, werken sociale mediasites actief om de dreiging van deepfakes te bestrijden. Facebook zet bijvoorbeeld technische teams in die gemanipuleerde foto's, audio en video kunnen spotten. Naast het gebruik van software, huren Facebook (en andere sociale media-bedrijven) mensen in om handmatig naar deepfakes te zoeken.
"We hebben onze voortdurende inspanningen om gemanipuleerde media te bestrijden uitgebreid met het aanpakken van deepfakes", zei een Facebook-vertegenwoordiger in een verklaring. "We weten dat de voortdurende opkomst van alle vormen van gemanipuleerde media echte uitdagingen voor de samenleving vormt. Daarom investeren we in nieuwe technische oplossingen, leren we van academisch onderzoek en werken we samen met anderen in de industrie om deepfakes en andere vormen van gemanipuleerde media te begrijpen."
Niet alle Deepfakes zijn slecht
Zoals we hebben gezien met de educatieve deepfake-video van McAfee en de komische deepfake-video's op late night tv, zijn sommige deepfake-video's niet noodzakelijk slecht. Hoewel politiek de echte gevaren van deepfake-video's kan blootleggen, laat de entertainmentindustrie vaak alleen de lichtere kant van deepfake-video's zien.
In een recente aflevering van The Late Show With Stephen Colbert werd bijvoorbeeld een grappige deepfake-video getoond waarin het gezicht van acteur Steve Buscemi over het lichaam van actrice Jennifer Lawrence werd gelegd. In een ander geval verving komiek Jordan Peeler een video van voormalig president Barack Obama die met zijn eigen stem sprak. Humoristische deepfake-video's zoals deze zijn ook online verschenen, waarin het gezicht van president Trump boven het gezicht van de Duitse bondskanselier Angela Merkel wordt gelegd terwijl de persoon spreekt.
Nogmaals, als de deepfake-video's worden gebruikt voor een satirisch of humoristisch doel of gewoon als entertainment, dan laten social media-platforms en zelfs filmproductiehuizen ze toe of gebruiken ze. Facebook staat dit soort inhoud bijvoorbeeld toe op zijn platform, en Lucasfilm gebruikte een soort digitale recreatie om een jonge Carrie Fisher op het lichaam van actrice Ingvild Deila te tonen in "Rogue One: A Star Wars Story."
McAfee's Grobman merkte op dat een deel van de technologie achter deepfakes goed wordt gebruikt met stuntdubbels in de filmproductie om acteurs veilig te houden. "Context is alles. Als het voor komische doeleinden is en het duidelijk is dat het niet echt is, is dat iets dat een legitiem gebruik van technologie is, " zei Grobman. "Erkennen dat het voor allerlei verschillende doeleinden kan worden gebruikt, is cruciaal."
Hoe Deepfake-video's te detecteren
McAfee is niet het enige beveiligingsbedrijf dat experimenteert met het detecteren van nepvideo's. In het artikel van Black Hat 2018, getiteld "AI Gone Rogue: Exterminating Deep Fakes Before They Cause Menace", schrijven twee beveiligingsexperts van Symantec, Security Response Lead Vijay Thaware en Software Development Engineer Niranjan Agnihotri, dat ze een tool hebben ontwikkeld om nepvideo's op basis van Google FaceNet. Google FaceNet is een neurale netwerkarchitectuur die Google-onderzoekers hebben ontwikkeld om te helpen met gezichtsverificatie en -herkenning. Gebruikers trainen een FaceNet-model op een bepaalde afbeelding en kunnen vervolgens hun identiteit verifiëren tijdens tests daarna.
Om de verspreiding van deepfake-video's te stoppen, biedt AI Foundation, een non-profitorganisatie die is gericht op menselijke en AI-interactie, software genaamd "Reality Defender" om nepinhoud te vinden. Het kan afbeeldingen en video scannen om te zien of ze zijn gewijzigd met behulp van AI. Als ze dat hebben, krijgen ze een 'Honest AI Watermark'.
- De Business Guide to Machine Learning De Business Guide to Machine Learning
- PornHub, Twitter verbiedt 'Deepfake' AI-gemodificeerde porno PornHub, Twitter verbiedt 'Deepfake' AI-gemodificeerde porno
- Nieuwste Deepfake Tech laat je dansen zoals Bruno Mars Nieuwste Deepfake Tech laat je dansen zoals Bruno Mars
Een andere strategie is om het concept van Zero Trust in gedachten te houden, wat betekent "vertrouw nooit, controleer altijd" - een motto voor cyberbeveiliging dat betekent dat IT-professionals moeten bevestigen dat alle gebruikers legitiem zijn voordat ze toegangsrechten verlenen. Het blijft nodig om sceptisch te blijven over de geldigheid van video-inhoud. U wilt ook software met digitale analysemogelijkheden om nepinhoud te herkennen.
Op zoek naar Deepfakes
In de toekomst moeten we voorzichtiger zijn met video-inhoud en rekening houden met de gevaren die ze voor de samenleving kunnen opleveren als ze worden misbruikt. Zoals Grobman opmerkte: "Op de korte termijn moeten mensen sceptischer staan tegenover wat ze zien en erkennen dat video en audio kunnen worden gefabriceerd."
Dus houd de politieke video's die je bekijkt sceptisch in de gaten tijdens het komende verkiezingsseizoen en vertrouw niet alle video's met bedrijfsleiders. Omdat wat je hoort misschien niet is wat echt werd gezegd, en misleidende deepfake-video's kunnen onze samenleving echt schaden.