Huis Meningen Waarom technologiebedrijven mensen gebruiken om ai | te helpen Ben Dickson

Waarom technologiebedrijven mensen gebruiken om ai | te helpen Ben Dickson

Inhoudsopgave:

Video: Radboud Grand Round - Van bolwerk naar netwerk (November 2024)

Video: Radboud Grand Round - Van bolwerk naar netwerk (November 2024)
Anonim

"Andrew Ingram" is een digitale assistent die uw e-mails scant, planningsideeën geeft voor de vergaderingen en afspraken die u met uw collega's bespreekt, taken instelt en uitnodigingen naar de relevante partijen stuurt met zeer weinig hulp. Het maakt gebruik van de geavanceerde kunstmatige intelligentie van X.ai, een nieuw York gevestigde startup die gespecialiseerd is in het ontwikkelen van AI-assistenten. De problemen die het oplost, kunnen veel tijd en frustratie besparen voor mensen (zoals ik) die een rommelig schema hebben.

Maar volgens een in mei gepubliceerd Wired-verhaal is de intelligentie achter Andrew Ingram niet helemaal kunstmatig. Het wordt ondersteund door een groep van 40 Filippino's in een sterk beveiligd gebouw aan de rand van Manila die het gedrag van de AI volgen en het overnemen wanneer de assistent een zaak tegenkomt die het niet aan kan.

Hoewel het idee dat je e-mails worden gescand door echte mensen misschien eng klinkt, is het een gangbare praktijk geworden bij veel bedrijven die AI-diensten aanbieden aan hun klanten. Een recent artikel in The Wall Street Journal legde verschillende bedrijven bloot die hun werknemers toegang geven tot en e-mails van klanten lezen om nieuwe functies te bouwen en hun AI te trainen op zaken die het nog niet eerder heeft gezien.

De "Wizard of Oz" -techniek of pseudo-AI genoemd, de praktijk om mensen in stilte te gebruiken om de tekortkomingen van AI-algoritmen te compenseren werpt een licht op enkele van de diepste uitdagingen waarmee de AI-industrie wordt geconfronteerd.

AI is niet klaar voor brede problemen

Achter de meeste AI-innovaties van de afgelopen jaren staan ​​diepgaande algoritmen en neurale netwerken. Diepe neurale netwerken zijn zeer efficiënt in het classificeren van informatie. In veel gevallen, zoals stem- en gezichtsherkenning of het identificeren van kanker in MRI- en CT-scans, kunnen ze beter presteren dan mensen.

Maar dat betekent niet dat diep leren en neurale netwerken elke taak kunnen uitvoeren die mensen kunnen.

"Diep leren stelt ons in staat om het perceptieprobleem op te lossen. Dit is een groot probleem omdat perceptie sinds AI meer dan 60 jaar geleden een beperkte AI heeft", zegt Jonathan Mugan, mede-oprichter en CEO van DeepGrammar. "Het oplossen van het perceptieprobleem heeft AI eindelijk nuttig gemaakt voor zaken als spraakherkenning en robotica."

Mugan merkt echter op dat perceptie niet het enige probleem is. Diep leren worstelt waarbij gezond verstand en begrip een rol spelen.

"Diep leren helpt ons niet met dit probleem", zegt hij. "We hebben enige vooruitgang geboekt in NLP (natuurlijke taalverwerking) door taal te beschouwen als een perceptieprobleem; dat wil zeggen, woorden en zinnen omzetten in vectoren. Dit heeft ons in staat gesteld om tekst beter weer te geven voor classificatie en machinevertaling (wanneer er veel gegevens), maar het helpt niet bij gezond verstand. Daarom zijn chatbots grotendeels mislukt."

Een van de grootste problemen waarmee alle deep learning-toepassingen te maken hebben, is het verzamelen van de juiste gegevens om hun AI-modellen te trainen. De inspanning en gegevens die nodig zijn om een ​​neuraal netwerk te trainen om een ​​taak uit te voeren, zijn afhankelijk van hoe breed de probleemruimte is en welk nauwkeurigheidsniveau vereist is.

Een beeldclassificatietoepassing zoals de Not Hotdog-app van Silicon Valley van HBO doet bijvoorbeeld een zeer smalle en specifieke taak: het vertelt u of de camera van uw smartphone een hotdog toont of niet. Met voldoende hotdog-afbeeldingen kan de AI van de app zijn zeer belangrijke functie met een hoge nauwkeurigheid uitvoeren. En zelfs als het af en toe een fout maakt, doet het niemand pijn.

Maar andere AI-toepassingen, zoals die welke X.ai bouwt, pakken veel bredere problemen aan, wat betekent dat ze veel kwaliteitsvoorbeelden vereisen. Ook is hun tolerantie voor fouten veel lager. Er is een groot verschil tussen een komkommer voor een hotdog verwarren en een belangrijke zakelijke bijeenkomst op een verkeerd tijdstip plannen.

Helaas zijn kwaliteitsgegevens geen handelswaar die alle bedrijven bezitten.

"De vuistregel is dat hoe algemener een probleem dat een AI probeert aan te pakken, des te meer randgevallen of ongewoon gedrag kan optreden. Dit betekent onvermijdelijk dat je veel meer trainingsvoorbeelden nodig hebt om alles te dekken, " zegt Dr. Steve Marsh, CTO bij Geospock. "Startups hebben over het algemeen geen toegang tot enorme hoeveelheden trainingsgegevens, dus de modellen die ze mogelijk kunnen bouwen, zullen zeer niche en broze zijn, die meestal niet aan hun verwachtingen voldoen."

Een dergelijke schat aan informatie is alleen in het bezit van grote bedrijven zoals Facebook en Google, die al jaren gegevens van miljarden gebruikers verzamelen. Kleinere bedrijven moeten grote bedragen betalen om trainingsgegevens te verkrijgen of te creëren, en dat vertraagt ​​de lancering van hun applicatie. Het alternatief is om toch te starten en hun AI direct te trainen, met behulp van menselijke trainers en live klantgegevens en in de hoop dat de AI uiteindelijk minder afhankelijk van mensen zal worden.

Edison Software, een in Californië gevestigd bedrijf dat apps ontwikkelt voor het beheren van e-mails, liet zijn werknemers bijvoorbeeld de e-mails van haar klanten lezen om een ​​'slimme antwoord'-functie te ontwikkelen omdat ze niet genoeg gegevens hadden om het algoritme, het bedrijf, te trainen CEO vertelde The Wall Street Journal. Slimme antwoorden maken is een brede en uitdagende taak. Zelfs Google, dat toegang heeft tot de e-mails van miljarden gebruikers, biedt slimme antwoorden voor zeer enge gevallen.

Maar mensen gebruiken om AI te trainen met live gebruikersgegevens is niet beperkt tot kleinere bedrijven.

In 2015 lanceerde Facebook M, een AI-chatbot die verschillende nuances van gesprekken kon begrijpen en erop kon reageren en veel taken kon uitvoeren. Facebook heeft M beschikbaar gemaakt voor een beperkt aantal gebruikers in Californië en heeft een staf van menselijke operators opgezet die de prestaties van de AI zouden volgen en ingrijpen om deze te corrigeren wanneer een gebruiker geen verzoek kon begrijpen. Het oorspronkelijke plan was dat de menselijke operatoren de assistent moesten leren reageren op randgevallen die hij nog niet eerder had gezien. Na verloop van tijd zou M kunnen werken zonder de hulp van mensen.

Een onbereikbaar doel?

Het is niet duidelijk hoe lang het zal duren voor Edison Software, X.ai en andere bedrijven die human-in-the-loop systemen hebben gelanceerd om hun AI volledig geautomatiseerd te maken. Er is ook twijfel of de huidige trends van AI ooit het punt kunnen bereiken om deel te nemen aan bredere domeinen.

In 2018 heeft Facebook M afgesloten zonder het officieel te implementeren. Het bedrijf heeft geen details gedeeld, maar het is duidelijk dat het heel moeilijk is om een ​​chatbot te maken die brede gesprekken kan voeren. En als M beschikbaar zou zijn voor alle twee miljard gebruikers van Facebook zonder dat het eerst volledig in staat zou zijn om automatisch te reageren op allerlei gesprekken, zou de sociale media-reus een enorme staf mensen moeten inhuren om de leemten van M op te vullen.

DeepGrammar's Mugan gelooft dat we uiteindelijk in staat zullen zijn om AI te creëren die gezond verstand redeneren kan oplossen, wat anderen classificeren als algemene AI. Maar het zal niet snel gebeuren. "Er zijn momenteel geen methoden aan de horizon die een computer in staat stellen te begrijpen wat een klein kind weet, " zegt Mugan. "Zonder dit basiskennis kunnen computers niet 100% van de tijd veel taken uitvoeren."

Om dat in perspectief te plaatsen, hebben experts van OpenAI onlangs Dactyl ontwikkeld, een robothand die objecten aankan. Dit is een taak die elk menselijk kind op jonge leeftijd onbewust leert uitvoeren. Maar het kostte Dactyl 6.144 CPU's en 8 GPU's en ongeveer honderd jaar ervaring om dezelfde vaardigheden te ontwikkelen. Hoewel het een fascinerende prestatie is, benadrukt het ook de grote verschillen tussen de nauwe AI en de manier waarop het menselijk brein werkt.

"We zijn nog ver verwijderd van kunstmatige algemene intelligentie en het is zeer waarschijnlijk dat AGI de combinatie en coördinatie is van veel verschillende soorten smalle of toepassingsspecifieke AI's", zegt Marsh. "Ik denk dat er op dit moment de neiging is om de mogelijkheden van AI te overtypen, maar ik zie ook dat het enorm veel waarde heeft om alleen de eerste stappen te zetten en traditionele Machine Learning-modellen te implementeren."

Is een andere AI Winter opdoemen?

In 1984 waarschuwde de American Association of Artificial Intelligence (later omgedoopt tot Association for the Advancement of Artificial Intelligence) het bedrijfsleven dat hype en enthousiasme rond AI uiteindelijk tot teleurstelling zouden leiden. Kort daarna stortten investeringen en interesse in AI in, wat leidde tot een tijdperk dat beter bekend stond als de 'AI-winter'.

Sinds begin 2010 is de belangstelling en investeringen in het veld weer toegenomen. Sommige experts vrezen dat als AI-toepassingen ondermaats presteren en niet aan de verwachtingen voldoen, er weer een AI-winter zal volgen. Maar de experts die we spraken, waren van mening dat AI al te geïntegreerd is geworden in ons leven om de stappen terug te vinden.

"Ik denk niet dat we gevaar lopen voor een AI-winter zoals eerder, omdat AI nu echte waarde levert, niet alleen hypothetische waarde, " zegt Mugan. "Als we echter aan het grote publiek blijven vertellen dat computers net zo slim zijn als mensen, riskeren we een terugslag. We zullen niet teruggaan naar het niet gebruiken van diep leren voor perceptie, maar de term 'AI' kan bezoedeld worden en we zou het iets anders moeten noemen."

Wat zeker is, is dat er op zijn minst een tijdperk van desillusie voor ons staat. We staan ​​op het punt te leren in hoeverre we de huidige AI-melanges op verschillende gebieden kunnen vertrouwen.

"Wat ik verwacht te zien is, is dat sommige bedrijven aangenaam verrast zijn door hoe snel ze een AI kunnen bieden voor een eerder handmatige en dure service, en dat andere bedrijven zullen merken dat het langer duurt dan ze hadden verwacht om voldoende gegevens te verzamelen om te worden financieel levensvatbaar ", zegt James Bergstra, mede-oprichter en hoofd van onderzoek bij Kindred.ai. "Als er te veel van de laatste zijn en niet genoeg van de eerste, kan dit een nieuwe AI-winter onder beleggers veroorzaken."

  • Kunstmatige intelligentie heeft een bias probleem, en het is onze fout Kunstmatige intelligentie heeft een bias probleem, en het is onze fout
  • Waarom is het belangrijk om AI te leren spelen? Waarom is het belangrijk om AI te leren spelen
  • AI biedt enorm potentieel, maar het zal niet gebeuren 's nachts AI biedt enorm potentieel, maar het zal niet gebeuren' s nachts

Marsh van Geospock voorspelt dat hoewel de financiering niet zal verdwijnen, er enkele aanpassingen in de dynamiek zullen zijn. Omdat investeerders beseffen dat echte expertise zeldzaam is en alleen degenen met toegang tot gegevens om de modellen te trainen, in de branche anders zullen zijn, zal er een grote consolidatie in de markt zijn en zullen veel minder startups financiering krijgen.

"Voor veel AI-startups zonder een nichemarkttoepassing of enorme hoeveelheden gegevens: de winter komt eraan", concludeert Marsh.

Waarom technologiebedrijven mensen gebruiken om ai | te helpen Ben Dickson