L’intelligenza artificiale continua a sollevare dibattiti a livello internazionale, soprattutto per quanto riguarda il suo utilizzo in rapporto con l’essere umano e per i rischi derivanti da un uso scriteriato della stessa. Ora, a queste dispute va ad aggiungersi un nuovo studio che riguarda il test di Turing, pubblicato sul Journal of Experimental and Theoretical Artificial Intelligence, in cui si evidenza la presenza di un problema rilevante.
Nella loro riflessione, gli autori dello studio – Kevin Warwick e Huma Shah della Conventry University, nel Regno Unito – sottolineano come se una macchina si appellasse al famosissimo Quinto Emendamento, che in questo caso sarebbe il diritto di restare in silenzio durante il test di Turing – la stessa potrebbe superare questa prova, venendo indicata come un’entità pensante, creando in questo senso un importante precedente.
Qualunque altra macchina “silente”, infatti – sempre secondo quanto riportano nel loro studio i due ricercatori – potrebbe egualmente superare il test, anche qualora la stessa fosse manifestamente “non in grado di pensare”.
Il test di Turing fu concepito negli anni Cinquanta e deve la sua creazione ad Alan Turing. Il test permette di ottenere una valutazione circa la capacità della macchina di dimostrare un comportamento intelligente che non sia dissimile da quello umano. Il test prevede che un uomo debba sostenere una conversazione con due entità nascoste – un altro essere umano e una macchina – stabilendo al termine quale dei due interlocutori sia l’umano e quale il computer.
Sulla scorta di ciò, i due ricercatori hanno preso in considerazione i verbali dei test di Turing in cui la macchina è rimasta in silenzio: in tutti questi episodi, la persona chiamata a giudicare, non è stata in grado di stabilire con certezza se stesse interagendo con una persona o una macchina, portando Warwick e Shah a concludere che qualunque macchina, restando semplicemente in silenzio, possa quindi superare la prova.
Nel caso esaminato dai due ricercatori, il motivo del silenzio della macchina non era dovuto ad una scelta dell’intelligenza artificiale, bensì, a un problema tecnico che ha impedito alla macchina di interagire durante l’esperimento.