Google AlphaGo
Il Go, un antico gioco cinese nato oltre 2.500 anni fa, è apparentemente molto semplice: i due sfidanti posizionano le pedine, tutte di uguale valore, sulle intersezioni di una griglia 19 x 19. Vince chi “conquista” il maggior numero di spazi. Questo gioco nasconde però un numero di mosse e possibilità pari a 2,081 x 10170 (una cifra superiore al numero di atomi presente nel nostro universo). Per questo motivo un approccio di tipo brute force, come quello utilizzato per Deep Blue (possibile negli scacchi in quanto l’albero delle mosse è “solamente” 10123) non avrebbe prodotto risultati utili, serviva un sistema che ricreasse il funzionamento del cervello umano. Per realizzare AlphaGo, DeepMind – acquisita da Google nel 2014 – ha invece creato un sistema con reti neurali artificiali profonde, “allenate” con apprendimento supervisionato (all’inizio AlphaGo ha valutato un database di 30 milioni di mosse umane) e con apprendimento per rinforzo (le reti neurali, l’una contro l’altra, hanno incominciato a giocare milioni e milioni di partite andando per tentativi ed errori). Il risultato? Nel 2015 AlphaGo ha seccamente battuto 5 a 0 il campione europeo Fan Hui, replicando l’impresa nel 2016 (in questo caso per 4 a 1) con il campione mondiale Lee Sedol.