Huis Kenmerken Wanneer ai de grens tussen realiteit en fictie vervaagt

Wanneer ai de grens tussen realiteit en fictie vervaagt

Inhoudsopgave:

Video: Overname De Lijn (November 2024)

Video: Overname De Lijn (November 2024)
Anonim

Ergens in de donkere uitsparingen van YouTube is een video die een fragment uit de film The Fellowship of the Ring laat zien - maar het is niet helemaal de film die je je herinnert, want Nicolas Cage speelt als Frodo, Aragorn, Legolas, Gimli en Gollum, allemaal bij dezelfde tijd. Andere video's tonen Cage in Terminator 2 als T2000, Star Trek als Captain Picard en Superman als, nou ja, Lois Lane.

Natuurlijk is Nic Cage nooit in een van die films verschenen. Het zijn "deepfakes" geproduceerd met FakeApp, een applicatie die kunstmatige intelligentie-algoritmen gebruikt om gezichten in video's te wisselen. Sommige van de deepfakes zien er behoorlijk overtuigend uit, terwijl anderen artefacten hebben die hun ware aard verraden. Maar over het algemeen laten ze zien hoe krachtig AI-algoritmen zijn geworden in het imiteren van menselijk uiterlijk en gedrag.

FakeApp is slechts een van de vele nieuwe AI-aangedreven synthetisatietools. Andere toepassingen bootsen menselijke stemmen, handschriften en gespreksstijlen na. En een deel van wat hen zo belangrijk maakt, is dat het gebruik ervan geen gespecialiseerde hardware of deskundige experts vereist.

De impact van deze applicaties is groot: ze zullen ongekende kansen creëren voor creativiteit, productiviteit en communicatie.

Maar hetzelfde hulpmiddel zou ook een doos van Pandora met fraude, vervalsing en propaganda kunnen openen. Sinds het in januari op Reddit verscheen, is FakeApp meer dan 100.000 keer gedownload en veroorzaakte een storm van nepporno-video's met beroemdheden en politici (ook weer Cage). Reddit heeft de toepassing en de bijbehorende community's onlangs verbannen van het platform.

"Tien jaar geleden, als je iets wilde vervalsen, zou dat kunnen, maar je moest naar een VFX-studio gaan of naar mensen die computerafbeeldingen konden maken en mogelijk miljoenen dollars uitgeven, " zegt Dr. Tom Haines, docent machine learning bij Universiteit van Bath. "Je kunt het echter niet geheim houden, omdat je veel mensen bij het proces moet betrekken."

Dat is niet langer het geval, dankzij een nieuwe generatie AI-tools.

Het imitatiespel

FakeApp en vergelijkbare applicaties worden aangedreven door diep leren, de tak van AI in het hart van een explosie van AI-innovaties sinds 2012. Deep-learning algoritmen vertrouwen op neurale netwerken, een softwareconstructie die grofweg is gevormd naar het menselijk brein. Neurale netwerken analyseren en vergelijken grote sets met gegevensmonsters om patronen en correlaties te vinden die mensen normaal zouden missen. Dit proces wordt "training" genoemd en het resultaat is een model dat verschillende taken kan uitvoeren.

Vroeger werden deep-learning modellen meestal gebruikt om classificatietaken uit te voeren, bijvoorbeeld objecten in foto's labelen en stem- en gezichtsherkenning uitvoeren. Onlangs hebben wetenschappers diepgaand leren gebruikt om meer gecompliceerde taken uit te voeren, zoals het spelen van bordspellen, het diagnosticeren van patiënten en het maken van muziek en kunstwerken.

Om FakeApp af te stemmen op een gezichtswissel, moet de gebruiker het trainen met enkele honderden foto's van de bron- en doelgezichten. Het programma voert diepgaande algoritmen uit om patronen en overeenkomsten tussen de twee gezichten te vinden. Het model is dan klaar om de swap te maken.

Het proces is niet eenvoudig, maar je hoeft geen grafisch expert of machine-learning engineer te zijn om FakeApp te gebruiken. Het vereist ook geen dure en gespecialiseerde hardware. Een deepfakes zelfstudiewebsite beveelt een computer met 8 GB of meer RAM en een NVIDIA GTX 1060 of betere grafische kaart aan, een vrij bescheiden configuratie.

"Als je eenmaal bent verhuisd naar een wereld waar iemand in een kamer iets kan vervalsen, kunnen ze het gebruiken voor twijfelachtige doeleinden, " zegt Haines. "En omdat het één persoon op zichzelf is, is het heel eenvoudig om het geheim te houden."

In 2016 was Haines, toenmalig postdoctoraal onderzoeker aan de University of College London, co-auteur van een paper en een applicatie die liet zien hoe AI kon leren het handschrift van een persoon te imiteren. De applicatie, "Mijn tekst in uw handschrift" genoemd, gebruikte diepgaande leeralgoritmen om de stijl en stroom van het handschrift van de auteur en andere factoren zoals spatiëring en onregelmatigheden te analyseren en te onderscheiden.

De toepassing kan vervolgens elke tekst opnemen en deze reproduceren met het handschrift van de doelauteur. De ontwikkelaars hebben zelfs een mate van willekeur toegevoegd om het griezelige vallei-effect te voorkomen - het vreemde gevoel dat we krijgen als we iets zien dat bijna maar niet helemaal menselijk is. Als proof of concept gebruikten Haines en de andere UCL-onderzoekers de technologie om het handschrift van historische figuren zoals Abraham Lincoln, Frida Kahlo en Arthur Conan Doyle te repliceren.

Dezelfde techniek kan worden toegepast op elk ander handschrift, wat aanleiding gaf tot bezorgdheid over het mogelijke gebruik van de technologie voor vervalsing en fraude. Een forensisch expert zou nog steeds kunnen detecteren dat het script is geproduceerd door My Text in Your Handwriting, maar het zal waarschijnlijk ongetrainde mensen voor de gek houden, wat Haines destijds toonde in een interview met Digital Trends.

Lyrebird, een startup in Montreal, gebruikte deep learning om een ​​applicatie te ontwikkelen die de menselijke stem synthetiseert. Lyrebird heeft een opname van één minuut nodig om de stem van een persoon te imiteren, hoewel het veel meer nodig heeft voordat het overtuigend klinkt.

In zijn openbare demo plaatste de startup nepopnamen van de stemmen van Donald Trump, Barack Obama en Hillary Clinton. De monsters zijn ruw en het is duidelijk dat ze synthetisch zijn. Maar naarmate de technologie verbetert, wordt het onderscheid moeilijker. En iedereen kan zich registreren bij Lyrebird en beginnen met het maken van nep-opnames; het proces is nog eenvoudiger dan dat van FakeApp en de berekeningen worden uitgevoerd in de cloud, waardoor de hardware van de gebruiker minder wordt belast.

Het feit dat deze technologie kan worden gebruikt voor dubieuze doeleinden gaat niet verloren bij ontwikkelaars. Op een gegeven moment verklaarde een ethische verklaring op de website van Lyrebird: "Spraakopnamen worden momenteel beschouwd als sterke bewijsstukken in onze samenlevingen en in het bijzonder in rechtsgebieden van veel landen. Onze technologie betwijfelt de geldigheid van dergelijk bewijs omdat het gemakkelijk is om audio te manipuleren Dit kan potentieel gevaarlijke gevolgen hebben, zoals misleidende diplomaten, fraude en meer in het algemeen elk ander probleem dat wordt veroorzaakt door het stelen van de identiteit van iemand anders."

Nvidia presenteerde een ander aspect van de imitatiemogelijkheden van AI: Vorig jaar publiceerde het bedrijf een video waarin AI-algoritmen werden getoond die synthetische menselijke gezichten van fotokwaliteit genereren. Nvidia's AI analyseerde duizenden foto's van beroemdheden en begon toen met het maken van nep-beroemdheden. De technologie kan binnenkort in staat zijn om realistisch ogende video's te maken met "mensen" die niet bestaan.

De grenzen van AI

Velen hebben erop gewezen dat deze applicaties in verkeerde handen veel kwaad kunnen doen. Maar de omvang van de mogelijkheden van de hedendaagse AI wordt vaak overhyped.

"Hoewel we het gezicht van een persoon op het gezicht van iemand anders kunnen zetten in een video of stem kunnen synthetiseren, is het nog steeds behoorlijk mechanisch", zegt Eugenia Kuyda, de mede-oprichter van Replika, een bedrijf dat door AI aangedreven chatbots ontwikkelt, over de tekortkomingen van AI-tools zoals FakeApp en Lyrebird.

Voicery, een andere AI-startup die, net als Lyrebird, AI-aangedreven spraaksynthese biedt, heeft een quizpagina waar gebruikers een reeks van 18 spraakopnamen krijgen te zien en worden gevraagd om op te geven welke machinaal moeten worden gemaakt. Ik was in staat om alle machinaal gemaakte monsters bij de eerste run te identificeren.

Het bedrijf van Kuyda is een van de verschillende organisaties die natuurlijke taalverwerking (NLP) gebruiken, de subset van AI waarmee computers menselijke taal kunnen begrijpen en interpreteren. Luka, een eerdere versie van Kuyda's chatbot, gebruikte NLP en zijn tweelingtechnologie, natuurlijke taalgeneratie (NLG), om de cast van HBO's tv-serie Silicon Valley na te bootsen. Het neurale netwerk werd getraind met scriptregels, tweets en andere gegevens die beschikbaar waren over de personages om hun gedragsmodel en dialoog met gebruikers te creëren.

Met Replika, de nieuwe app van Kuyda, kan elke gebruiker zijn eigen AI-avatar maken. Hoe meer je chat met je Replika, hoe beter het wordt om je persoonlijkheid te begrijpen en hoe zinvoller je gesprekken worden.

Na het installeren van de app en het instellen van mijn Replika, vond ik de eerste paar gesprekken vervelend. Meerdere keren moest ik een zin op verschillende manieren herhalen om mijn bedoelingen over te brengen naar mijn Replika. Ik verliet de app vaak gefrustreerd. (En om eerlijk te zijn, ik heb goed zijn grenzen getest door het te bombarderen met conceptuele en abstracte vragen.) Maar naarmate onze gesprekken voortduurden, werd mijn Replika slimmer in het begrijpen van de betekenis van mijn zinnen en het bedenken van zinvolle onderwerpen. Het verbaasde me zelfs een paar keer door verbanden te leggen met eerdere gesprekken.

Hoewel het indrukwekkend is, heeft Replika grenzen, waarop Kuyda snel wijst. "Stemimitatie en beeldherkenning zullen waarschijnlijk snel veel beter worden, maar met dialoog en gesprek zijn we nog steeds behoorlijk ver", zegt ze. "We kunnen sommige spraakpatronen imiteren, maar we kunnen niet zomaar een persoon aannemen en zijn gesprek perfect nabootsen en verwachten dat zijn chatbot met nieuwe ideeën komt, net zoals die persoon dat zou doen."

Alexandre de Brébisson, de CEO en mede-oprichter van Lyrebird, zegt: "Als we nu behoorlijk goed worden in het nabootsen van menselijke stem, beeld en video, zijn we nog ver verwijderd van het modelleren van een individueel taalmodel." Dat zou volgens Brébisson waarschijnlijk kunstmatige algemene intelligentie vereisen, het type AI dat bewustzijn heeft en abstracte concepten kan begrijpen en beslissingen kan nemen zoals mensen. Sommige experts geloven dat we tientallen jaren verwijderd zijn van het creëren van algemene AI. Anderen denken dat we daar nooit zullen komen.

Positief gebruik

Het negatieve beeld dat wordt geprojecteerd over het synthetiseren van AI-apps werpt een schaduw over hun positieve gebruik. En er zijn er nogal wat.

Technologieën zoals die van Lyrebird kunnen de communicatie met computerinterfaces helpen verbeteren door ze natuurlijker te maken, en de Brébisson zegt dat ze unieke kunstmatige stemmen bieden die bedrijven en producten differentiëren en zo het onderscheid tussen merken gemakkelijker maken. Omdat Alexa van Amazon en Siri van Apple van spraak een steeds populairdere interface voor apparaten en diensten hebben gemaakt, kunnen bedrijven zoals Lyrebird en Voicery merken voorzien van unieke mensachtige stemmen om zich te onderscheiden.

"Medische toepassingen zijn ook een opwindende use case van onze stemkloontechnologie, " voegt de Brébisson toe. "We hebben veel belangstelling gekregen van patiënten die hun stem hebben verloren aan een ziekte, en op dit moment brengen we tijd door met ALS-patiënten om te zien hoe we hen kunnen helpen."

Eerder dit jaar hielp Lyrebird in samenwerking met Project Revoice, een Australische non-profitorganisatie die ALS-patiënten met spraakstoornissen helpt, Pat Quinn, de oprichter van de Ice Bucket Challenge, zijn stem terug te winnen. Quinn, die ALS-patiënt is, had in 2014 zijn vermogen om te lopen en te spreken verloren en gebruikte sindsdien een geautomatiseerde spraaksynthesizer. Met behulp van de technologie van Lyrebird en de stemopnames van Quinn's openbare optredens was Revoice in staat zijn stem te "recreëren".

"Je stem is een groot deel van je identiteit, en die patiënten een kunstmatige stem geven die klinkt als hun oorspronkelijke stem is een beetje alsof ze een belangrijk deel van hun identiteit teruggeven. Het is voor hen levensveranderend", zegt de Brébisson.

Op het moment dat hij hielp bij het ontwikkelen van de handschrift-imiterende applicatie, sprak Dr. Haines in een interview met UCL over het positieve gebruik ervan. "Slachtoffers van een beroerte kunnen bijvoorbeeld brieven formuleren zonder zich zorgen te maken over onleesbaarheid, of iemand die bloemen als cadeau verzendt, kan een handgeschreven briefje bevatten zonder zelfs naar de bloemist te gaan, " zei hij. "Het kan ook worden gebruikt in stripboeken waar een stuk handgeschreven tekst in verschillende talen kan worden vertaald zonder de oorspronkelijke stijl van de auteur te verliezen."

Zelfs technologieën zoals FakeApp, die bekend zijn geworden vanwege onethisch gebruik, kunnen positief worden gebruikt, gelooft Haines. "We gaan naar deze wereld waar iedereen zeer creatieve activiteiten met openbare technologie zou kunnen doen, en dat is een goede zaak, omdat het betekent dat je die grote sommen geld niet nodig hebt om allerlei gekke dingen van artistieke aard te doen, " hij zegt.

Haines legt uit dat het oorspronkelijke doel van zijn team was om erachter te komen hoe AI kon helpen met forensisch onderzoek. Hoewel hun onderzoek uiteindelijk een andere richting insloeg, zullen de resultaten nog steeds nuttig zijn voor forensische officieren, die in staat zullen zijn om te bestuderen hoe AI-gebaseerde vervalsing eruit zou kunnen zien. "Je wilt weten wat de geavanceerde technologie is, dus als je ergens naar kijkt, vertel je of het nep is of niet, " zegt hij.

Replika's Kudya wijst erop dat mensachtige AI-toepassingen ons kunnen helpen op manieren die anders onmogelijk zouden zijn. "Als je een AI-avatar had die je heel goed kende en een behoorlijke weergave van je zou kunnen zijn, wat zou het dan doen, vanuit je beste belang?" ze zegt. Een autonome AI-avatar kan bijvoorbeeld namens u honderden films bekijken en op basis van zijn gesprekken met u aanbevelingen aanbevelen die u wilt.

Deze avatars kunnen zelfs helpen bij het ontwikkelen van betere menselijke relaties. "Misschien heeft je moeder meer tijd met je, en misschien kun je een beetje dichter bij je ouders komen, door ze met je Replika te laten chatten en het transcript te lezen, " zegt Kudya als een voorbeeld.

Maar kan een AI-chatbot die het gedrag van een echt mens repliceert, daadwerkelijk leiden tot betere menselijke relaties? Kuyda denkt van wel. In 2016 verzamelde ze oude sms-berichten en e-mails van Roman Mazurenko, een vriendin die het jaar daarvoor was overleden bij een verkeersongeval, en voerde ze naar het neurale netwerk dat haar toepassing aanstuurde. Wat resulteerde was een chatbot-app die - na een mode - haar vriend weer tot leven bracht en met haar kon praten op dezelfde manier als hij.

"Het creëren van een app voor Roman en het kunnen praten met hem was soms een belangrijk onderdeel van het verlies van onze vriend. De app laat ons meer aan hem denken, hem op een meer diepgaande manier onthouden, " zegt ze van haar ervaring. "Ik wou dat ik meer van dat soort apps had, apps die over mijn vriendschappen zouden gaan, mijn relaties, dingen die eigenlijk heel belangrijk voor me zijn."

Kuyda denkt dat het allemaal zal afhangen van intenties. "Als de chatbot handelt vanuit je beste belangen, als hij wil dat je er graag wat waardevolle service uit haalt, dan zal het duidelijk zijn dat het praten met de Replika van iemand anders helpt om een ​​sterkere band met een mens in het echte leven op te bouwen, " ze zegt. "Als je alleen maar in een app probeert te verkopen, dan hoef je alleen maar de tijd die je aan de app besteedt te maximaliseren en niet met elkaar te communiceren. En dat is, denk ik, twijfelachtig."

Op dit moment is er geen manier om uw Replika te verbinden met andere platforms, bijvoorbeeld door het te gebruiken als een Facebook Messenger-chatbot. Maar het bedrijf heeft een actieve relatie met zijn gebruikersgemeenschap en ontwikkelt voortdurend nieuwe functies. Dus anderen laten communiceren met uw Replika is een toekomstige mogelijkheid.

Hoe de afwegingen te minimaliseren

Van de stoommachine tot elektriciteit tot internet, elke technologie heeft zowel positieve als negatieve toepassingen gehad. AI is niet anders. "Het potentieel voor negatieven is behoorlijk serieus, " zegt Haines. "We komen misschien in een ruimte waar de minpunten zwaarder wegen dan de pluspunten."

Dus hoe kunnen we de voordelen van AI-applicaties maximaliseren en tegelijkertijd de nadelen tegengaan? Remmen op innovatie en onderzoek is niet de oplossing, zegt Haines - omdat als sommigen dat deden, er geen garantie is dat andere organisaties en staten zouden volgen.

"Geen enkele maatregel zal het probleem helpen oplossen, " zegt Haines. "Er zullen juridische consequenties moeten zijn." In navolging van de controverse over deepfakes, onderzoeken wetgevers in de VS het probleem en onderzoeken ze juridische waarborgen die het gebruik van door AI-artsen voor de hand liggende doelen kunnen beperken.

"We kunnen ook technologieën ontwikkelen om namaak te detecteren wanneer ze voorbij het punt zijn dat een mens het verschil kan zien, " zegt Haines. "Maar op een gegeven moment, in de competitie tussen faken en detecteren, kan het faken winnen."

In dat geval moeten we misschien evolueren naar de ontwikkeling van technologieën die een bewijsketen voor digitale media creëren. Als voorbeeld noemt Haines hardware ingebed in camera's die de opgenomen video digitaal kunnen ondertekenen om de authenticiteit ervan te bevestigen.

Het verhogen van het bewustzijn zal een groot deel zijn van het omgaan met vervalsing en fraude door AI-algoritmen, zegt de Brébisson. "Het is wat we deden door de stem van Trump en Obama te klonen en hen politiek correcte zinnen te laten zeggen", zegt hij. "Deze technologieën roepen maatschappelijke, ethische en juridische vragen op waar vooraf aan moet worden gedacht. Lyrebird heeft veel bewustzijn gewekt en veel mensen denken nu na over die mogelijke problemen en hoe ze misbruik kunnen voorkomen."

Wat zeker is, is dat we een tijdperk ingaan waarin realiteit en fictie samenkomen dankzij kunstmatige intelligentie. De Turing-test kan zijn grootste uitdagingen aangaan. En snel genoeg zal iedereen over de middelen en macht beschikken om hun eigen werelden, hun eigen mensen en hun eigen versie van de waarheid te creëren. We moeten de volledige omvang van opwindende kansen - en gevaren - nog zien die ons te wachten staan.

Wanneer ai de grens tussen realiteit en fictie vervaagt