Intelligenze artificiali hanno i pregiudizi come gli esseri umani

di Valentina Stella Il Meridione 9 settembre 2018

“Siamo sulla soglia di un mondo completamente nuovo. I benefici possono essere tanti, così come i pericoli. E le nostre intelligenze artificiali devono fare quel che vogliamo che facciano”: era il novembre 2017 quando l’astrofisico inglese Stephen Hawking lanciava per l’ennesima volta il suo monito riguardo le intelligenze artificiali (IA). Se non ci prepariamo a gestirla, sosteneva lo scienziato pop, l'intelligenza artificiale potrebbe essere il peggior evento della storia della nostra civiltà. Oggi invece a lanciare un allarme sono ricercatori dell'università britannica di Cardiff e del Massachusetts Institute of Technology (Mit) di Boston che hanno pubblicato uno studio sulla rivista Scientific Reports secondo il quale l’intelligenza artificiale diventerebbe sempre più 'umana', sia nel bene che nel male: dopo aver imparato a mentire, a bluffare nel poker e a ragionare come uno psicopatico, in futuro potrebbe diventare pure 'schiava' dei pregiudizi, facendosi condizionare da informazioni errate apprese in modo autonomo da altre macchine senza alcun intervento dell'uomo. In altre parole anche i robot correrebbero il rischio di diventare vittime di preconcetti e tabù.  Sebbene i risultati possano far immaginare futuri robot 'razzisti' pronti a snobbare ed escludere l'uomo, “questi scenari appartengono ancora al mondo della fantascienza: al momento l'intelligenza artificiale non è in grado di formarsi dei pregiudizi in modo autonomo”, rassicura all’Ansa Giorgio Buttazzo, docente di ingegneria informatica dell'Istituto TeCIP (Tecnologie della Comunicazione, Informazione, Percezione) della Scuola Superiore Sant'Anna di Pisa. “Questo nuovo studio è un lavoro teorico che, attraverso modelli matematici, prova a simulare delle interazioni sociali fra individui, a prescindere che siano robot o umani. Quello che dimostra - continua l'esperto - è che quando la comunicazione e lo scambio di informazioni avviene tra piccoli gruppi, è più facile che si formino delle conoscenze falsate; se invece la comunicazione è estesa a molti gruppi, e quindi l'informazione arriva da più fonti, cala il rischio di avere pregiudizi. Questi risultati saranno molto utili in futuro, perché in ambito informatico si stanno sviluppando dei sistemi basati su enti autonomi che girano in Rete per acquisire informazioni con cui costruire conoscenza: al momento non sono 'intelligenti', ma fra 30-40 anni lo scenario sarà diverso”. Intanto sempre qualche giorno fa un altro studio del Mit aveva reso noto che l’IA ha imparato a riconoscere il modo di esprimersi e comunicare delle persone che soffrono di depressione con una accuratezza del 70%. 

Commenti

Post popolari in questo blog

Le commissioni di inchiesta in Parlamento

«L’avvocato non può essere identificato con l’assistito»

«Ridurre l’arretrato civile del 90%? Una chimera» Nordio ripensa l’intesa con l’Ue