Vi ricordate degli apocalittici scenari post guerra nucleare evocati nelle scene di Terminator (film del 1984 di James Cameron) in cui si narrava dell’autoconsapevolezza acquisita dal network di difesa Skynet? Ebbene, nella pellicola in cui uomini e macchine dall’aspetto umano si sfidavano senza esclusione di colpi, ad aver scatenato l’irreparabile era stato proprio un computer: e da quel momento, tanti si interrogano sugli sviluppi dell’IA.
Nel nostro presente, è DeepMind di Google l’oggetto della discussione tra esperti dai pareri contrastanti: il software di Mountain View, infatti, è talmente evoluto da esser riuscito ad imporsi nel gioco di Go contro un campione sudcoreano e, di fronte a questa inarrestabile evoluzione, testimoniata anche dai notevoli investimenti messi in campo da tanti attori della Silicon Valley nell’intelligenza artificiale, la scienza pone un limite.
Grazie all’unione delle forze tra DeepMind di Google e l’Università di Oxford, è stato condotto infatti uno studio sugli possibili sviluppi dell’evoluzione dell’intelligenza artificiale in cui si è arrivati a creare una sorta di pulsante di emergenza per impedire all’intelligenza artificiale di proseguire nelle sue azioni, capace nello stesso tempo di prevenire un eventuale aggiramento di questo sistema di sicurezza da parte della stessa macchina.
Certo quando si parla di sistemi informatici, è sempre bene ricordarsi come anche i più piccoli bug possano essere sfruttati per aggirare protezioni e sistemi di sicurezza: e a questo proposito, i ricercatori sottolineano come non siano del tutto certi che si possa davvero interrompere qualunque genere di algoritmo senza troppe difficoltà e, soprattutto, in totale sicurezza, prevenendo eventuali derive governate dai computer.
I risultati dello studio saranno resi noti a New York, entro fine mese, durante la Conference on Uncertainty in Artificial Intelligence.