Sono sempre più promettenti gli sviluppi compiuti dall’intelligenza artificiale di Google DeepMind: dopo aver dimostrato al mondo che le reti neurali di Big G sono state capaci di apprendere le tecniche di gioco su alcuni videogame storici di Atari, e ancora, in seguito al clamoroso successo fatto registrare nella sfida contro il campione del mondo del gioco Go, ora, l’AI della multinazionale di Mountain View è anche in grado di giocare a Montezuma’s Revenge.
L’intelligenza artificiale dell’azienda statunitense è riuscita a raggiungere questo traguardo soltanto dopo l’adozione di modifiche importanti all’algoritmo, che a differenza del precedente ha permesso alla macchina di affrontare le sfide rappresentate da Montezuma’s Revenge con il giusto piglio: se prima l’AI di Mountain View sembrava annoiarsi a causa dei tentativi fallimentari di rapportarsi al gioco, ora, le cose sono cambiate.
Che cosa è stato modificato in questo algoritmo perché le reti neurali di Google trovassero delle valide ragioni per continuare a tentare di capire il funzionamento del videogame? Semplicemente è stata aggiunta una componente essenziale, che è presente nelle tecniche di apprendimento dell’essere umano: la cosiddetta motivazione intrinseca, quella che porta le persone in carne ad ossa a battersi per raggiungere un obiettivo.
I tecnici di Google hanno inserito in DeepMind qualcosa che potrebbe assomigliare ad una forma di curiosità artificiale, uno stimolo che spinge l’intelligenza artificiale a completare il gioco, rendendola anche capace di capire e fare proprie quelle che sono le strategie più adeguate da usare per cercare di dare una risposta a tutti gli enigmi che una sfida porta con sé.
Grazie all’aggiornamento dell’algoritmo, DeepMind è riuscita a muoversi all’interno di 15 scenari virtuali (su 24 presenti nel titolo). A titolo di confronto, nello stesso periodo di tempo, la vecchia versione dell’algoritmo riusciva ad esplorare soltanto 2 ambienti.