Inhoudsopgave:
Video: The danger of AI is weirder than you think | Janelle Shane (November 2024)
Google herhaalde onlangs Duplex om expliciet aan restaurantgastheren en salonpersoneel te onthullen dat zij met de Google Assistent spreken en worden opgenomen.
Door Duplex aan te passen, laat Google die kritiek rusten. Maar waarom is het zo belangrijk dat bedrijven transparant zijn over de identiteit van hun AI-agenten?
Kunnen AI-assistenten kwaadaardige doelen dienen?
"Er is een groeiende verwachting dat wanneer je een bedrijf een bericht stuurt, je zou kunnen communiceren met een AI-aangedreven chatbot. Maar wanneer je een mens hoort spreken, verwacht je meestal dat dit een echt persoon is", zegt Joshua March, CEO van Coversocial.
Maart zegt dat we aan het begin staan van mensen die op regelmatige basis betekenisvolle interacties hebben met AI, en vorderingen in het veld hebben de angst gecreëerd dat hackers AI-agenten voor kwaadaardige doeleinden zouden kunnen exploiteren.
"In het beste geval kunnen AI-bots met kwaadaardige bedoelingen mensen beledigen", zegt Marcio Avillez, SVP van netwerken bij Cujo AI. Maar Marcio voegt eraan toe dat we met meer ernstige bedreigingen te maken kunnen krijgen. AI kan bijvoorbeeld specifieke taalpatronen leren, waardoor het eenvoudiger wordt om de technologie aan te passen om mensen te manipuleren, zich voor te doen als slachtoffers, en vishing (voice phishing) aanvallen en soortgelijke activiteiten uit te voeren.
Veel experts zijn het erover eens dat de dreiging reëel is. In een column voor CIO legde Steven Brykman de verschillende manieren uiteen waarop een technologie zoals Duplex kan worden uitgebuit: "In ieder geval met mensen die mensen bellen, is er nog steeds een beperkende factor - een mens kan slechts zoveel oproepen per uur, per dag doen. Mensen moeten worden betaald, pauzes nemen, enzovoort. Maar een AI-chatbot kan letterlijk een onbeperkt aantal mensen op een onbeperkt aantal manieren bellen!"
In dit stadium horen we vooral speculatie; we weten nog steeds niet de omvang en ernst van de bedreigingen die kunnen ontstaan met de komst van stemassistenten. Maar veel van de potentiële aanvallen waarbij spraakgestuurde assistenten betrokken zijn, kunnen worden uitgeschakeld als het bedrijf dat de technologie levert expliciet communiceert met gebruikers wanneer ze communiceren met een AI-agent.
Privacybezorgdheden
Een ander probleem rond het gebruik van technologieën zoals Duplex is het potentiële risico voor de privacy. AI-aangedreven systemen hebben gebruikersgegevens nodig om hun algoritmen te trainen en te verbeteren, en Duplex is geen uitzondering. Hoe deze gegevens worden opgeslagen, beveiligd en gebruikt, is erg belangrijk.
Er zijn nieuwe regels in opkomst die bedrijven verplichten om expliciete toestemming van gebruikers te verkrijgen wanneer ze hun informatie willen verzamelen, maar ze zijn meestal ontworpen om technologieën te dekken waarbij gebruikers opzettelijk interacties initiëren. Dit is logisch voor AI-assistenten zoals Siri en Alexa, die door de gebruiker worden geactiveerd. Maar het is niet duidelijk hoe de nieuwe regels van toepassing zouden zijn op AI-assistenten die gebruikers bereiken zonder te worden geactiveerd.
In zijn artikel benadrukt Brykman de noodzaak om wettelijke waarborgen in te stellen, zoals wetten die bedrijven verplichten om de aanwezigheid van een AI-agent te verklaren - of een wet die, wanneer je een chatbot vraagt of het een chatbot is, moet worden gezegd: "Ja, Ik ben een chatbot. " Dergelijke maatregelen zouden de menselijke gesprekspartner de kans geven om zich terug te trekken of op zijn minst te beslissen of ze willen communiceren met een AI-systeem dat hun stem opneemt.
Zelfs met dergelijke wetten zullen privacykwesties niet verdwijnen. "Het grootste risico dat ik voorzie in de huidige incarnatie van de technologie is dat het Google nog meer gegevens over ons privéleven zal geven die het nog niet had. Tot nu toe wisten ze alleen van onze online communicatie; ze zullen nu echt inzicht krijgen in onze real-world gesprekken ", zegt Vian Chinner, oprichter en CEO van Xineoh.
Recente privacyschandalen waarbij grote technologiebedrijven betrokken zijn, waarbij ze gebruikersgegevens op dubieuze wijze hebben gebruikt voor hun eigen winst, hebben een gevoel van wantrouwen gecreëerd om hen meer vensters in ons leven te geven. "Over het algemeen vinden mensen dat de grote bedrijven in Silicon Valley ze beschouwen als inventaris in plaats van klanten en een groot wantrouwen hebben tegenover bijna alles wat ze doen, ongeacht hoe baanbrekend en levensveranderend het uiteindelijk zal zijn", zegt Chinner.
Functionele storingen
Ondanks een natuurlijke stem en toon en het gebruik van mensachtige geluiden zoals "mmhm" en "ummm", verschilt Duplex niet van andere hedendaagse AI-technologieën en heeft dezelfde beperkingen.
Of spraak of tekst als interface wordt gebruikt, AI-agenten zijn goed in het oplossen van specifieke problemen. Daarom noemen we ze "enge AI" (in tegenstelling tot "algemene AI" - het type kunstmatige intelligentie dat algemene probleemoplossing kan bewerkstelligen, zoals de menselijke geest doet). Hoewel een beperkte AI uitzonderlijk goed kan zijn in het uitvoeren van de taken waarvoor het is geprogrammeerd, kan het spectaculair mislukken wanneer het een scenario krijgt dat afwijkt van het probleemdomein.
"Als de consument denkt dat hij tegen een mens spreekt, zullen ze waarschijnlijk iets vragen dat buiten het normale script van de AI valt en dan een frustrerende reactie krijgen als de bot het niet begrijpt", zegt Conversocial in maart.
Wanneer iemand daarentegen weet dat hij met een AI praat die is getraind om tafels in een restaurant te reserveren, zullen ze proberen te voorkomen dat ze taal gebruiken die de AI in de war brengt en ervoor zorgt dat deze zich op onverwachte manieren gedraagt, vooral als het brengt zij een klant.
"Medewerkers die oproepen ontvangen van de Duplex moeten ook een eenvoudige introductie krijgen dat dit geen echte persoon is. Dit zou de communicatie tussen het personeel en AI helpen om conservatiever en duidelijker te zijn, " zegt Avillez.
Daarom is het in het belang van de bedrijven zelf om transparant te zijn over hun gebruik van AI, totdat (en als) we AI ontwikkelen die kan presteren op dezelfde manier als menselijke intelligentie.
Aan het einde van de dag wordt een deel van de angst voor stemassistenten zoals Duplex veroorzaakt door het feit dat ze nieuw zijn, en we wennen er nog steeds aan om ze in nieuwe instellingen en gebruiksgevallen tegen te komen. "Sommige mensen lijken in ieder geval erg ongemakkelijk met het idee om met een robot te praten zonder het te weten, dus voorlopig zou het waarschijnlijk aan de tegenpartijen in het gesprek moeten worden onthuld", zegt Chinner.
- AI is (ook) een Force for Good AI is (ook) een Force for Good
- Wanneer AI de lijn tussen realiteit en fictie vervaagt Wanneer AI de lijn tussen realiteit en fictie vervaagt
- Kunstmatige intelligentie heeft een bias probleem, en het is onze fout Kunstmatige intelligentie heeft een bias probleem, en het is onze fout
Maar op de lange termijn raken we gewend aan interactie met AI-agenten die slimmer en beter in staat zijn taken uit te voeren waarvan eerder werd gedacht dat ze het exclusieve domein van menselijke operators waren.
"De volgende generatie kan het niet schelen of ze met een AI of een mens spreken wanneer ze contact opnemen met een bedrijf. Ze willen gewoon snel en gemakkelijk antwoord krijgen en ze zijn opgegroeid met Alexa. Wacht op vasthouden om met een mens te praten zal veel frustrerender zijn dan alleen interactie met een bot, "zegt Conversocial's maart.