Huis Vooruit denken Google-apps, tools zijn gericht op 'democratisering van ai'

Google-apps, tools zijn gericht op 'democratisering van ai'

Inhoudsopgave:

Video: Google Apps Script? Сейчас объясню! (November 2024)

Video: Google Apps Script? Сейчас объясню! (November 2024)
Anonim

Voor mij was het grootste thema op de Google I / O-conferentie van vorige week "democratisering van AI", met andere woorden, AI toegankelijk maken voor eindgebruikers door het gebruik ervan in een verscheidenheid aan Google-services, en voor ontwikkelaars via nieuwe tools, programma's en zelfs hardware die is ontworpen rond het TensorFlow AI-framework van Google.

Google CEO Sundar Pichai begon de conferentie met een keynote waarin hij opnieuw benadrukte dat het bedrijf van een mobiele-eerste naar een AI-eerste benadering ging, vergelijkbaar met wat hij vorig jaar zei.

Hij zei dat Google "al onze producten heroverweegt en machine learning en AI toepast om gebruikersproblemen te dienen." Hij zei dat algoritmen voor machine learning al invloed hebben op de rangschikking van verschillende resultaten bij het zoeken en hoe Street View nu automatisch tekens herkent. Andere diensten worden slimmer vanwege AI, zei hij, zoals hoe de Google Home nu meerdere gebruikers ondersteunt en hoe Gmail nu een 'slimme antwoord'-functie uitrolt waarbij automatisch antwoorden op e-mails worden voorgesteld.

Daartoe deed hij een aantal aankondigingen van AI-producten, zowel voor consumenten als voor ontwikkelaars.

Lens, assistent en foto gebruiken AI-functies

Voor eindgebruikers is de meest zichtbare van deze nieuwe inspanningen Google Lens, een set op visie gebaseerde computerfuncties die kunnen begrijpen wat u ziet en actie onderneemt, zowel in de Google Assistent als in Google Foto's.

Hij demonstreerde bijvoorbeeld hoe je een foto van een bloem kunt maken en hoe Google Lens deze nu kan identificeren. Meer prozaïsch kan het een foto maken van een gebruikersnaam en wachtwoord voor Wi-Fi en vervolgens automatisch begrijpen dat u verbinding wilt maken en dat voor u doen. Andere voorbeelden zijn het maken van een foto van de buitenkant van een restaurant en de software laten begrijpen wat het is en vervolgens gebruikersrecensies en menu's laten zien. Dit is niet allemaal helemaal nieuw, maar ik kan me voorstellen dat het behoorlijk nuttig zal zijn - het soort dingen dat we allemaal over een paar jaar vrijwel allemaal zullen gebruiken. Google zegt dat dit over enkele maanden zal worden uitgerold.

Google Assistant wordt steeds slimmer en zal de Google Lens opnemen, hoewel het grootste nieuws daarover is dat Assistant nu naar de iPhone komt.

De populaire Google Foto's-app krijgt ook een aantal andere nieuwe AI-gestuurde functies, waaronder 'voorgesteld delen', waarbij het automatisch de beste foto's selecteert en suggereert dat u deze deelt met de mensen op de foto's. Google Foto's voegt ook een functie toe waarmee je automatisch je hele of een deel kunt delen bibliotheek, zodat als u foto's van uw kinderen maakt, deze ook automatisch deel uitmaken van de fotobibliotheek van uw partner. En het kan de beste foto's voor een fotoboek voorstellen.

AI-First Datacenters en nieuwe ontwikkelingstools

Aan de interne kant sprak Pichai over hoe het bedrijf zijn computerarchitectuur "heroverweeg" om "AI-first datacenters" te bouwen. Hij zei dat Google zijn huidige Tensor Processing Units (TPU's) gebruikt in al zijn services, van eenvoudig zoeken tot spraakherkenning tot zijn AlphaGo-competitie.

Ik was vooral geïntrigeerd door de introductie van het bedrijf van een nieuwe versie van de TPU 2.0, waarvan Pichai zei dat het in staat was om 180 teraflops (180 biljoen floating point-bewerkingen per seconde) per 4-chipbord te bereiken, of 11, 5 petaflops in elke "pod" van 64 dergelijke boards. Deze zijn nu beschikbaar voor ontwikkelaars als "cloud TPU's" op de Google Cloud Engine, en het bedrijf zei dat het 1000 cloud TPU's beschikbaar zou maken voor onderzoekers van machine learning via zijn nieuwe TensorFlow Research Cloud.

Dit maakt deel uit van een toenemende druk op TensorFlow, het open source framework voor machine-learning van het bedrijf voor ontwikkelaars, en de conferentie had verschillende sessies om meer ontwikkelaars dit framework te laten gebruiken. TensorFlow lijkt de meest populaire van de machine learning frameworks, maar het is slechts een van een aantal keuzes. (Anderen omvatten Caffe, gepusht door Facebook, en MXNet, gepusht door Amazon Web Services.)

Ik ging naar een sessie over "TensorFlow voor niet-experts" ontworpen om het kader en de te evangeliseren Keras diepe leerbibliotheek, en het zat vol. Het is fascinerend, maar niet zo bekend als de meer traditionele ontwikkelingstools. Alle grote bedrijven zeggen dat ze problemen hebben met het vinden van voldoende ontwikkelaars met expertise op het gebied van machine learning, dus het is geen verrassing dat ze allemaal hun interne frameworks pushen. Hoewel de tools om deze te gebruiken steeds beter worden, is het nog steeds ingewikkeld. Natuurlijk is het bellen van een bestaand model veel eenvoudiger, en Google Cloud Platform, evenals Microsoft en AWS, hebben allemaal een verscheidenheid aan dergelijke ML-services die ontwikkelaars kunnen gebruiken.

Omdat het ontwikkelen van dergelijke services zo moeilijk is, besteedde Pichai veel tijd aan het praten over "AutoML", een benadering met neurale netten die nieuwe neurale netwerken ontwerpen. Hij zei dat Google hoopt dat AutoML een mogelijkheid zal nemen die een paar promovendi vandaag de dag hebben en het voor honderdduizenden ontwikkelaars mogelijk zal maken om binnen drie tot vijf jaar nieuwe neurale netten voor hun specifieke behoeften te ontwerpen.

Dit maakt deel uit van een grotere inspanning genaamd Google.ai om AI naar meer mensen te brengen, waarbij Pichai het heeft over verschillende initiatieven om AI te gebruiken in de gezondheidszorg. Hij sprak over pathologie en kankerdetectie, DNA-sequencing en molecuulontdekking.

Dave Burke, hoofd van Android-engineering, zet het thema voort en kondigt een nieuwe versie van TensorFlow aan, geoptimaliseerd voor mobiel, genaamd TensorFlow Lite. Met de nieuwe bibliotheek kunnen ontwikkelaars slankere deep learning-modellen bouwen die zijn ontworpen voor Android-smartphones, en hij vertelde hoe ontwerpers van mobiele processors werkten aan specifieke versnellers in hun processors of DSP's die zijn ontworpen voor neurale netwerkinferencing en zelfs training.

In de keynote van de ontwikkelaar zei Fei Fei Li, een professor van Stanford die leiding geeft aan het AI-onderzoek van Google, dat ze zich bij Google heeft aangesloten "om ervoor te zorgen dat iedereen AI kan gebruiken om concurrerend te blijven en de problemen op te lossen die voor hen het belangrijkst zijn".

Ze sprak veel over 'Democratisering van AI', waaronder de verschillende hulpmiddelen die Google beschikbaar stelt aan ontwikkelaars voor specifieke toepassingen, zoals visie, spraak, vertaling, natuurlijke taal en video-intelligentie, evenals hulpmiddelen voor het maken van uw eigen modellen, zoals als TensorFlow, wat gemakkelijker te gebruiken is met meer API's op hoog niveau.

Ze vertelde over hoe ontwikkelaars nu CPU's, GPUS of TPU's kunnen gebruiken op de Google Compute Engine. Ze gaf een voorbeeld van hoeveel van een snelheidsverbetering sommige modellen op TPU's hebben uitgevoerd, en zei dat de onderzoeksimplicaties hiervan aanzienlijk zijn.

In navolging van Pichai prees ze de nieuwe TensorFlow Research Cloud en zei dat studenten en Kaggle-gebruikers zich moesten aanmelden om deze te gebruiken; en besloten door te zeggen dat het bedrijf zijn cloud AI-team heeft opgezet om AI democratisch te maken, om u te ontmoeten waar u bent, met de krachtigste AI-tools van Google, en om de reis te delen terwijl u deze gebruikt.

Google-apps, tools zijn gericht op 'democratisering van ai'