Huis Meningen Alexa, leer me hoe ik met je moet praten | tim bajarin

Alexa, leer me hoe ik met je moet praten | tim bajarin

Video: Amazon Echo Show 8 review: Alexa is getting even better (November 2024)

Video: Amazon Echo Show 8 review: Alexa is getting even better (November 2024)
Anonim

Toen Apple in 1992 zijn eerste persoonlijke digitale assistent (PDA) introduceerde, de Newton, was het vanaf het begin duidelijk dat het niet lang meer duurde voor deze wereld.

Als een concept was de Newton een head-turner, maar het ontwerp en de functies waren op zijn zachtst gezegd zwak.

Het grootste probleem was de zeer gebrekkige technologie voor handschriftherkenning. De destijds beschikbare mobiele processors waren niet in staat deze taak met enige nauwkeurigheid of precisie uit te voeren, terwijl de software slecht werd uitgevoerd.

Ik herinner me dat ik naar Chicago vloog voor de lancering van de Newton op verzoek van de toenmalige Apple-CEO John Sculley, die dit project vanaf het begin heeft bestuurd. Maar tijdens de demo op het podium faalde de handschriftherkenning herhaaldelijk. Ons werd verteld dat het een vroege versie van de software was, maar ik had een sterk gevoel dat Apple te veel was.

Tijdens de beginjaren van de Newton begon Palm Computing-oprichter Jeff Hawkins aan zijn eigen versie van een PDA te werken. Terwijl dat apparaat nog in ontwikkeling was, nodigde Hawkins me uit op zijn kantoor om een ​​mockup te zien, een houten blok gebeeldhouwd om eruit te zien als wat uiteindelijk de PalmPilot zou worden.

Ik vroeg Hawkins waarom hij dacht dat de Newton had gefaald. Hij wees op zijn tijd bij Grid Systems, dat in 1989 de eerste echte pen computing-laptop introduceerde, de GridPad. Het had ook een CPU op laag niveau en kon geen echte karakterherkenning aan. Maar het leerde Hawkins dat als het ging om peninvoer en karakterherkenning, men een exacte formule moest volgen en de karakters moest schrijven zoals vermeld in de handleiding.

Dat is de reden waarom de PalmPilot het Graffiti-schrijfsysteem bevatte, dat een gebruiker leerde hoe een cijfer, letter van het alfabet of specifieke tekens (zoals #, $) te schrijven op een manier die de PalmPilot kon begrijpen. Ik was een van de eersten die een PalmPilot testte en vond Graffiti erg intuïtief. Je zou dit een vorm van omgekeerd programmeren kunnen noemen, omdat de machine me leerde hoe het te gebruiken in de taal die het begreep.

Snel vooruit naar vandaag, en ik geloof dat we hetzelfde doen met digitale assistenten.

Een groot verschil deze keer is dat de verwerkingskracht, samen met AI en machine learning, deze digitale assistenten veel slimmer maken, maar niet altijd nauwkeurig.

In wat ik beschouw als een graffiti-achtige zet, stuurt Amazon me wekelijkse e-mails met meer dan een dozijn nieuwe vragen die Alexa kan beantwoorden. Ook dit is een soort omgekeerde programmering, omdat het me leert om Alexa de juiste vragen te stellen.

In een recente e-mail staan ​​hier enkele nieuwe dingen waarop Alexa kan reageren:

• "Alexa, waar denk je aan?"

• "Alexa, wat is een ander woord voor 'gelukkig?'"

• "Alexa, wat kan ik maken met kip en spinazie?"

• "Alexa, bel mam."

• "Alexa, test mijn spellingsvaardigheden."

• "Alexa, maak me 's ochtends wakker."

• "Alexa, hoe lang duurt de film Black Panther ?"

• "Alexa, spreek in jambische pentameter."

• "Alexa, hoeveel dagen tot Memorial Day?"

Deze wekelijkse prompts stellen mij en andere Echo-eigenaren in staat om de juiste manier te begrijpen om Alexa een vraag te stellen en bouwt ons vertrouwen op in de interactie met het platform.

Ik twijfel er niet aan dat als snellere processors, machine learning en AI worden toegepast op digitale assistenten, ze slimmer worden. Maar ik vermoed dat steeds meer bedrijven die digitale assistenten maken, ook Amazon's model gaan gebruiken om mensen te leren hoe ze vragen moeten stellen die meer aansluiten bij hoe hun digitale assistenten willen dat een vraag wordt gesteld.

Alexa, leer me hoe ik met je moet praten | tim bajarin