NEWS

I programmi di Intelligenza artificiale, nonostante si basino sull’apprendimento automatico,  sono sempre compilati da esseri umani. La possibilità di commettere errori o perpetuare pregiudizi, quindi, è sempre dietro l’angolo.
Un esperimento del Mit e dell’Università di Cardiff ha dimostrato che non solo le intelligenze artificiali possono acquisire i preconcetti dei programmatori, ma anche svilupparne in autonomia imparando l’uno dall’altro, copiando e imparando questo atteggiamento da un’altra macchina.


Per provare questa ipotesi i ricercatori hanno messo in piedi un gioco in cui ogni bot doveva scegliere di donare qualcosa a un altro elemento del proprio gruppo o a un elemento apparente a un altro gruppo, basandosi sulla reputazione di ogni robot e su diverse strategie del dono. Il test ha rivelato come i robot in breve tempo hanno acquisito strategie che dessero loro un buon risultato e una buona ricompensa in chiave immediata, fossero diventati progressivamente pregiudizievoli contro i bot del gruppo esterno.

Role Models per l'intelligenza artificial

“Le nostre simulazioni mostrano che il pregiudizio è una forza molto forte e può evolversi sviluppandosi anche in una popolazione virtuale a detrimento delle connessioni con gli altri” ha scritto Roger Whitaker, docente dell’ateneo di Cardiff e coautore dell’indagine.
Per ora, sarebbe importante capire se l’IA possa riconoscere i pregiudizi esistenti nella società, i suoi punti di origine e quali linee d’azione o conseguenze siano associate a tali pregiudizi.

Le tecnologie munite di intelligenza artificiale sono più simili a noi di quanto pensassimo, nel bene e nel male. I robot ci guardano, diamo l’esempio migliore.


PARTNER ENI Intesa SanPaolo
CON IL PATROCINIO DEL Ministero dell'Istruzione, dell'Università e della Ricerca
POWERED BY Realtime
SUSTAINER JWT Hill Knowlton Strategies Corriere della Sera
CONTRIBUTOR
CERCA NEL SITO CERCA