Microsoft grazie all’utilizzo dei chip FPGA (acronimo che sta per Field Programmable Gate Array) potrà supportare al meglio le proprie soluzioni di Intelligenza Artificiale, tenendo testa ad altri competitor del settore.
Già nel corso del 2012, un dipendente di Redmond – Doug Burger – segnalò a Steve Ballmer l’importanza di puntare su questo tipo di chip, per non accumulare un ritardo tecnologico nei confronti di Google ed Amazon: e a distanza di qualche anno, Microsoft sta finalmente realizzando questo importantissimo passo avanti, utilizzando i chip FPGA sui nuovi algoritmi di Bing basati sulle reti neurali.
L’azienda di Satya Nadella impiega già questi chip all’interno della sua piattaforma Azure e, per il futuro, Redmond prevede che gli stessi verranno introdotti su ogni server, poiché le Cpu tradizionali non bastano a supportare le implementazioni dell’intelligenza artificiale, alla quale viene infatti dedicato un chip ad hoc, un po’ come avviene con il TPU di Google, che supporta l’implementazione del deep learning su servizi e app.
Nel caso di Big G, i TPU sono stati realizzati pensando alle performance (davvero notevoli) piuttosto che all’utilizzo a lungo termine, anche in funzione di eventuali adattamenti delle reti neurali, che potrebbero richiedere nuovi TPU. Microsoft, invece, con i FPGA ha puntato sulla flessibilità (sacrificando la potenza) per esser certa di non dover rivedere i suoi chip in seguito all’evoluzione delle reti neurali adottate.
I chip FPGA utilizzati da Redmond sono stati progettati da Altera, azienda che è entrata a far parte della galassia Intel in seguito ad un’acquisizione con l’esborso di 16.7 miliardi di dollari.