Nel tentativo di contrastare quello che la corporation definisce come “uno dei peggiori abusi immaginabili”, vale a dire la diffusione via Internet di contenuti provenienti dagli abusi sui minori, Google ha intenzione di mettere i suoi algoritmi di intelligenza artificiale a disposizione delle organizzazioni non governative.
Il colosso statunitense dice di essere da tempo impegnato, assieme a NGO e altre società tecnologiche, nella lotta alla diffusione di materiale pedopornografico o CSAM (child sexual abuse material) on-line. Il nuovo passo di questa lotta prevede l’arruolamento dei network neurali per il deep learning, algoritmi all’avanguardia in grado di analizzare grandi quantità di foto e confermare se si tratti di file CSAM o meno.
Gli algoritmi anti-CSAM sono in grado di assistere e velocizzare notevolmente l’azione di identificazione del materiale pedopornografico, sostiene Google, ed è un avanzamento tecnologico significativo rispetto alla ricerca tramite hash sin qui adoperata per scovare copie di contenuti già noti. Mountain View parla di un 700% di contenuti CSAM scovati in più rispetto ai metodi tradizionali.
E visto che la lotta al pedoporno non è un business, rivela ancora Google, la IA anti-CSAM verrà messa a disposizione delle parti interessate in via del tutto gratuita. La tecnologia è infatti parte della API Content Safety, un toolkit pensato per incrementare la capacità di analizzare i contenuti scabrosi o impattanti dal punto di vista psicologico prevenendo la necessità di esporre i suddetti contenuti alle persone coinvolte.
Ad accogliere positivamente il nuovo sviluppo contro il pedoporno è stata tra gli altri Susie Hargreaves, CEO di Internet Watch Foundation che ha parlato di un importante ausilio tecnologico per gli esperti in carne e ossa: ora i cacciatori di CSAM potranno stare al passo con i criminali grazie all’analisi automatica di materiale illegale ancora inedito.