Pubblicato
Scritto da
Categorie
Tech ~
Tag
Google I/O ~
Google I/O 2018

Anche quest’anno a Mountain View, California, si è tenuto il consueto evento Google I/O. Le novità come sempre sono tra le più disparate. Si è partiti dalla sistemazione di un “Major bug”, su cui ha portato subito l’attenzione Sundar Pichai, fino a Google Duplex; il tutto seguito dalla bellezza di 7,000 persone più una live streaming seguita in tutto il mondo.

 

ll Major Bug

Il Major Bug si è aperto subito con una battuta per scaldare il pubblico. Il CEO di Google infatti ha spiegato come la famosa Emoji del panino con il formaggio sotto l’hamburger sia stata finalmente sistemata. Dopo la fetta di formaggio, però, un’altra cosa ha attirato la sua attenzione, l’emoji del boccale di Birra.

 

Non ha voluto dare spiegazioni fornitegli dagli sviluppatori per cui la schiuma fluttuava sopra la birra, ma ha semplicemente affermato che sono riusciti a ristabilire il naturale corso della fisica, per cui per ora sembra tutto sistemato.

Google I/O
Google I/O

If you're changing the world, you're working on important things. You're excited to get up in the morning.

L’apertura

L’evento si è aperto con un occhio di riguardo per quello che è la sensibilizzazione sull’uso della tecnologia e quanto essa sia fondamentale. Di come sia di nostra responsabilità imparare ad utilizzarla e dare la possibilità a chiunque di accedervi. Sostanzialmente ci stava rassicurando riguardo all’uso delle intelligenza artificiale, vero grande punto di tutto l’evento.

Google da tempo è interessata nello sviluppo sempre maggiore di AI per la fruizione di contenuti e dati, in modo semplice ed immediato. Questa continua voglia di migliorare, li ha portati allo sviluppo di un processo di machine learning  che attraverso la sola scansione dell’iride riesce a predire la retinopatia diabetica, trasformando profondamente quello che è il mondo medico, 

Google I/O
Google I/O

Dall’healthcare siamo passati all’accessibilità, un’altro settore molto a cuore a Google. Guardando un video l’intelligenza artificiale può riconoscere quando due persone stanno parlando contemporaneamente, e arrivare poi a separarle; permettendo così a chi ha problemi di comprensione di riuscire a capire entrambe le voci.

I Servizi si rinnovano

Viste le grandi potenzialità Google ha deciso di sfruttare il machine learning per quasi tutti i suoi servizi. Inserendo di fatto questo principio dappertutto.

 

A partire da Gmail che ora ci aiuta a scrivere le email, a Google Foto che implementa consigli e filtri basati sugli scatti e sui nostri comportamenti; ci da inoltre la possibilità di realizzare PDF da documenti e addirittura di ricolorare vecchie foto in bianco e nero.

 

Grandi rinnovi anche per Google News che cambia in tutti i suoi aspetti, con una gestione del News feed migliorata; troviamo poi la possibilità di raggruppare le notizie da diverse fonti, e il Full Coverage, in grado di ricostruire una notizia aggiornandola in tempo reale attraverso una AI.

Google Assistant

Il vero pezzo forte di tutto l’evento però è lui, Google Assistent.

Implementato, sviluppato, migliorato, l’assistente di Google, fa un balzo in avanti. Oltre al lato commerciale (rilasciate 6 nuove voci di cui una prestata da John Legend), il maggiordomo “Hey Google” non ha più bisogno del suo campanellino per essere attivato.

Google I/O

L’assistente personale ad oggi, è stato inserito in 500 milioni di device e con  il nuovo aggiornamento permetterà di fare conversazioni continue senza pronunciare “Hey Google“.

 

Inoltre sarà in grado di gestire operazioni “multiple task“, ovvero di rispondere a più domande contemporaneamente. Il tutto poi è stato accompagnato dalle “pretty please”, formule che gli permettono di capire e di rispondere a modo in base a come l’utente pone la domanda.

 

Ovviamente sono poi stati presentati i nuovi prodotti che usciranno a Luglio, e hanno annunciato che Google Assistant sarà disponibile anche su Google Maps da quest’estate.

 

Google Duplex

La grande star Google Duplex, è la nuova implementazione di Google Assistant che permetterà al nostro maggiordomo di telefonare per poterci prenotare appuntamenti, ristoranti, etc, etc.

C’è da dire che è ancora in fase di sviluppo, ma quello che ci è stato mostrato sul palco è stato un tentativo ben chiaro di farci riflettere sul futuro, e soprattutto di quanto Google ci creda su questo.

Google I/O
Android P

La presentazione ha poi proseguito con la nuova versione del sistema operativo di Google. Si è partiti prima dal  nuovo “servizio” FOMO ( Fear of Missing Out ). Uno strumento in grado di capire vari contesti, consentendo un uso ”più responsabile” dello smartphone; unito poi a Family Link che permette di tenere sotto controllo il tempo che i propri figli passano  davanti ad un display e conseguentemente di gestirlo.

Google I/O

Nella nuova versione del robottino verde, l’intelligenza artificiale è il “core”.

Sono state implementate molte funzionalità che si basano su di essa. Dall’Adaptive Battery all’Adaptive Brightness fino ad App action, che prevede quali azioni verranno compiute dall’utente.

Sono anche state annunciante le ML kit, le nuove API per l’implementazione di nuove gesture e per la navigazione della nuova interfaccia.

Successivamente è stato introdotto Dashboard, un applicativo di sistema che permetterà di tenere sotto controllo l’utilizzo che facciamo dello smartphone, permettendoci di auto limitarci.

Google Maps e Google Lens

Ovviamente non potevano mancare gli aggiornamenti su Google Maps. Implementato con il Machine Learning, ora dà la possibilità ad ogni attività commerciale di avere un “rank” di affinità ai propri interessi.

 

Permetterà di creare liste di location da condividere e sarà più semplice trovare quella più adeguata.

 

Molto apprezzata la nuova modalità di navigazione “a piedi” che sfrutta il VPS ( Visual Position System ); modalità che sfrutta la realtà aumentata della fotocamera.

 

Google Lens invece ritorna con la possibilità di riconoscere testo, tipologia di oggetti, abiti, etc. In più ci sarà la possibilità, puntando la fotocamera, di avere risultati in tempo reale basati sul machine learning, chiaramente pertinenti all’oggetto puntato.

Google I/O
La Conclusione

Prima della chiusura non poteva mancare un accenno all’autopilota di Google dove il progetto si è trasformato in Waymo.

 

A Phoenix inizierà una fase di test che consentirà di utilizzare un auto con autopilota chiamandola tramite un’app.

 

Fortemente implementato con machine learning, viene spiegato come riconoscerà meglio i pedoni e il comportamento delle altre vetture intorno. Grazie a questa tecnologia sono riusciti a riconoscere anche strade innevate; attenderemo con ansia i prossimi sviluppi!