Vai al contenuto

Le nuove abilità dell’Intelligenza Artificiale

Le nuove abilità dell’Intelligenza Artificiale

Google sta investendo molto su un progetto di ricerca per dotare l’intelligenza artificiale di altri sensi oltre l’udito. Si cerca di rendere più semplice, scorrevole e completa la comprensione delle richieste e dei dialoghi. Fernando Pereira, vicepresidente ed engineering fellow in Google, dal palco di Making Ai, annuncia: “È uno dei nuovi progetti a cui sto lavorando”, in riferimento all’integrazione tra riconoscimento vocale e gli altri sensi, questo per rendere l’interazione con la sua intelligenza artificiale il più naturale possibile.

Prima di tutto si vuole migliorare la comprensione dei numerosi dialoghi, affrontati fino ad oggi da Google Assistant.

Uno dei prossimi passaggi è di avere in modo più esteso una conversazione su diversi argomenti, per indirizzare l’assistente a eseguire proprio ciò che è richiesto”, afferma l’ingegnere di Mountain View.

Attualmente l’intelligenza artificiale di Google ha le sue massime performances quando si utilizzano domande specifiche su argomenti precisi.

Continua Pereira “Noi stiamo lavorando a un’interazione più aperta, che ti permetta di scegliere le attività che vuoi svolgere, la musica che vuoi sentire o funzioni che richiedano più passaggi coordinati”.

Google Duplex

Prendiamo come esempio l’assistente vocale di Google Duplex, con la funzione di sostituire l’utente in alcuni compiti. “Lo sforzo è di far sì che Duplex renda la conversazione naturale. Vogliamo adattare la tecnologia alle persone, non il contrario, e consentire all’utente di parlare come farebbe normalmente”, afferma il vicepresidente di Google, Yossi Matias.

Oggi l’intelligenza Artificiale non è in grado di comprendere l’ironia, le metafore, le sfumature e, Duplex è capace solo di rispondere in modo naturale alle richieste dei call center sugli smartphone di Google, Pixel. L’obiettivo degli ingegneri sarebbe quello di aumentare le capacità di queste macchine.

Un’interconnessione che acquisisce le informazioni condivise dall’utente e le utilizza in maniera adeguata nel momento in svolge i suoi compiti principali: “Se sa che sono allergico alle noccioline, l’assistente dovrebbe evitare di consigliarmi ricette che le contengano o ristoranti come il thai, dove molti piatti hanno questo ingrediente. Questo tipo di ragionamento richiede un sacco di ricerca nell’intelligenza artificiale, che stiamo facendo, ma ci vuole tempo”, spiega Pereira.

 

Linguaggio e non solo

Come sappiamo, però, non può bastare solo il linguaggio. Con il progetto Bert, si è voluto sfidare l’Intelligenza Artificiale di Google a indovinare parole cancellate da un testo di Wikipedia, prevedendole dal contesto. “Ciò però non significa che capisca il nostro linguaggio”, aggiunge Jacob Uszkoreit, responsabile della divisione Ai di Google di Berlino.

La comprensione richiede non solo parole, ma molti più input dall’ambiente circostante. Da qui nasce un nuovo obiettivo l’obiettivo: integrare varie forme di intelligenza artificiale.

Il vicepresidente di Google continua: “Stiamo facendo un sacco di esperimenti nella connessione tra riconoscimento di immagini e vocale, di audio e con il linguaggio. Il mondo è estremamente complesso e connettere i vari dettagli è ancora un problema per il machine learning, nessuno sa come risolverlo. Abbiamo fatto piccoli passi”.

Intelligenza Ambientale

È stata aperta una sperimentazione anche nelle Università. Questo per velocizzare la corsa a un’intelligenza capace di usare tuttI e cinque I sensi. Non un’intelligenza “robotica”, ma un’intelligenza “ambientale”, con la necessità di capire e sfruttare al meglio il contesto in cui è ambientata, che coinvolge l’utente a trecentosessanta gradi.

Conclude Pereira, “la relazione tra i concetti è qualcosa di lontano dalle macchine. Ed è qui dove stiamo investendo”.