Video: Gesproken tekst vertalen met de Google Spraak vertaler | Samsung & You (November 2024)
Hoewel ik gisteren hoorde over de plannen van Google om Android overal te krijgen, viel me echt op hoe zwaar het bedrijf op spraak- en contextherkenning rekent om zijn producten verder te brengen. Beide zijn onderwerpen die Google en anderen eerder hebben besproken, maar ik was onder de indruk van het enorme aantal specifieke toepassingen dat Google voor deze technologieën nu en in de nabije toekomst gebruikt. Het suggereert dat het bedrijf op beide gebieden grote vooruitgang heeft geboekt.
Spraakherkenning bestaat al jaren, en op smartphones is het een integraal onderdeel geworden van de ervaring bij verschillende persoonlijke assistenten, te beginnen met Siri van Apple, vervolgens met Google Now, en het meest recent met Cortana van Microsoft.
"We bouwen de meest geavanceerde engine voor spraakherkenning ter wereld", zei Sundar Pichai, Senior Senior Vice President voor Android, Chrome en Apps van Google gisteren tijdens zijn Google I / O-keynote. En hoewel anderen het daar misschien niet mee eens zijn, heeft het bedrijf veel nieuwe demo's laten horen in actie in nieuwe gevallen.
Voor Android Auto sprak het bedrijf over spraakmogelijkheden, zoals navigatie, communicatie en muziekbesturing. Dit is zeker zinvol in een wereld van afgeleid rijden. Spraakherkenning in auto's is niet nieuw - Microsoft en Ford introduceerden het Ford Sync-systeem al in 2007 - maar de implementatie van Google zag er vrij goed uit.
Verder maakt spraakherkenning ook deel uit van Android Wear-apparaten, zoals de aankomende LG G Watch en Samsung Gear Live smartwatches. Google demonstreerde bijvoorbeeld het spelen van muziek of het instellen van alarmen met behulp van spraakopdrachten. Op Android TV heeft Google aangetoond hoe spraak kan worden gebruikt om te zoeken naar video of gerelateerde inhoud. (Amazon heeft ook een soortgelijke functie aangeprezen in zijn Fire TV.)
In veel opzichten was de contextuele boodschap echter nog interessanter.
"We maken alles contextueel bewust, " zei Pichai en zei dat Google wil begrijpen wanneer u thuis, op kantoor of op reis bent, omdat uw informatiebehoeften op elke locatie verschillen. Thuis ben je misschien gericht op entertainment, terwijl je op kantoor werkgerelateerde informatie wilt. "We willen u de juiste informatie op het juiste moment aanbieden", zei hij.
David Singleton, een technisch directeur van Android (hieronder), vertelde bijvoorbeeld hoe de gemiddelde smartphonegebruiker 125 keer per dag zijn telefoon controleert, en hoe het beter zou zijn als Android Wear-horloges alleen de dingen zouden kunnen tonen waar je om geeft, afhankelijk van op context. In het bijzonder stelde een demo voor om de gebruiker eraan te herinneren om een pakket te controleren wanneer hij thuiskwam; en toen deed het systeem precies dat, toen hij aankwam. Over het algemeen concentreerde hij zich veel op contextuele informatie, bijvoorbeeld over zaken als vluchtstatus, instapkaart en weer voor een reiziger. En hij vertelde ontwikkelaars dat ze met de nieuwe Android Wear SDK "overzichtelijke, contextuele apps" voor dergelijke apparaten konden bouwen.
De beste draagbare apps reageren op de context van de gebruiker, zei Singleton. Hij toonde bijvoorbeeld een demo van de Eat 24-app op een telefoon met de herinnering dat je eerder een pizza bestelde en suggereerde dat je de bestelling een week later op dezelfde tijd herhaalt, waarbij de app je thuisadres kent.
Het combineren van de concepten spraakbesturing, context en een naadloze verbinding tussen de telefoon en een wearable kan een aantal interessante scenario's creëren. Singleton zei dat Google enkele spraakopdrachten heeft toegevoegd aan Android Wear en de komende maanden meer zou toevoegen. Hij demonstreerde bijvoorbeeld de Lyft-transportapplicatie op een Android Wear-apparaat, waarbij gebruikers alleen maar konden zeggen "bel me een auto" om een bestelling op uw exacte locatie te krijgen.
Om deze context te bieden, moet Google beter begrijpen waar u bent en wat u doet. Veel van deze informatie staat al op onze smartphones. De telefoons van vandaag weten waar je bent dankzij GPS, en de kans is groot dat als je Google Now gebruikt, Google al de locatie van je huis en kantoor kent, dus het kan je het beste aanwijzingen en weer geven. (Dit werkt niet altijd perfect vandaag, maar het beweegt in de goede richting.)
Maar Google wil meer weten. Hoewel het niet verscheen op de keynote van gisteren, heeft Google's Nest Labs (dat slimme thermostaten en rookmelders maakt) onlangs een ontwikkelaarsplatform aangekondigd, dat meer informatie met andere producten zal integreren. Nest vertelde bijvoorbeeld over hoe een Jawbone UP24-band zijn thermostaat kon vertellen om een kamer te verwarmen of te koelen op basis van wanneer je wakker wordt; of hoe uw Mercedes-auto uw thermostaat zou kunnen vertellen dat u naar huis gaat. Het is niet moeilijk je voor te stellen om dit te integreren met Google Now, wat betekent dat Google beter in staat is om te controleren of je thuis bent en een beter idee te krijgen van je planning. Nest heeft ook net Dropcam gekocht, dus het idee dat Google camera's in huis heeft, is niet langer vergezocht.
Natuurlijk gebeurt dit allemaal om specifieke redenen en om u bepaalde diensten te bieden. En u hebt het recht om een groot deel van de informatieverzameling "af te melden", hoewel weinigen van ons dat daadwerkelijk zullen doen omdat we van de diensten houden. Maar het is niet zo moeilijk om je voor te stellen dat Google deze informatie zal gebruiken om andere contextbewuste services te bieden en uiteindelijk de informatie zal gebruiken om meer gerichte advertenties te verkopen. Dat is hoe het bedrijf tenslotte het grootste deel van zijn winst maakt. Het is dus gemakkelijk om te zien hoe privacykwesties alleen maar zullen toenemen naarmate bedrijven uw context proberen te begrijpen.
En Google zal niet de enige zijn die deze informatie probeert te verzamelen. Microsoft heeft al lang gesproken over het willen begrijpen van context; en de manier waarop de Xbox One altijd naar opdrachten kan luisteren is ook controversieel. Ik verwacht dat we hier ook meer over zullen horen van Apple.
Maar een beter begrip van context en stem zijn al lange tijd doelen voor informatica, en om goede redenen, en het is opwindend om deze technologieën te zien ontwikkelen. Hoewel we ons zorgen moeten maken over privacykwesties, bieden deze technologieën een enorm potentieel voor persoonlijkere, gebruiksvriendelijkere toepassingen.