Il dibattito interno alla comunità scientifica su questioni etiche e intelligenza artificiale è acceso. I bias in AI esistono e derivano dai pregiudizi umani che le macchine poi amplificano. Tuttavia, progettare un’intelligenza morale più giusta ed equa è possibile, anche se difficile da ottenere.
Al centro del dibattito c’è una domanda: l’AI può eliminare autonomamente bias sociali e discriminazioni all’interno dei suoi algoritmi?
La maggior parte degli esperti concorda che la risposta dipende sia da come vengono raccolti i dati sia da come vengono sviluppati i modelli. Poiché ci si basa sull’addestramento umano e su dati reali, è facile che i pregiudizi e le percezioni di coloro che sviluppano l’AI si riflettano nella tecnologia o che si perda il controllo su ciò che viene imparato dalle macchine.
Un esempio eclatante è stato Tay, un bot Twitter sviluppato da Microsoft nel 2016 che in poche ora ha iniziato a scrivere affermazioni razziste, a insultare e a negare l’Olocausto, obbligando i suoi ideatori a spegnerlo immediatamente.
Questo esempio ci dice quanto sia necessario che la comunità scientifica presti sempre maggiore attenzione al rapporto tra intelligenza artificiale ed etica per fare in modo che nei sistemi di AI vengano rispecchiati i concetti di equità e correttezza: la cosiddetta AI Fairness.
Il punto di partenza per raggiungere l’AI Fairness è la consapevolezza, l’ammissione dei propri sbagli per cercare di dare vita a modelli più giusti.
Il tema della AI Fairness non è nuovo. Il dibattito è aperto ma spesso affrontato in maniera non adeguata da parte della comunità scientifica.
Al momento, non ci sono soluzioni reali in grado di assicurare la progettazione di un’intelligenza morale, ma solo obiettivi da raggiungere sperimentando approcci diversi, perché i bias nell’intelligenza artificiale sono un problema particolarmente complesso al punto che, anche semplicemente dare un’unica definizione di bias non è semplice.
Ad esempio: in statistica, il bias è la distanza tra la realtà e la stima che si fa; nel campo del Machine Learning e dell’AI, invece, il bias non è uno scostamento da dati reali, ma nasce dal fatto che i dati stessi sono discriminatori, perché il pregiudizio è spesso insito nel sistema.
Per comprendere meglio di cosa stiamo parlando, facciamo un esempio.
La ricercatrice del MIT di Boston Joy Buolamwini, nel suo studio “Gender Shades” ha verificato l’accuratezza di alcuni prodotti di riconoscimento facciale. La conclusione a cui è arrivata è che questi sistemi trattano alcune etnie in modo più impreciso rispetto alle altre. La ricerca ha dimostrato una precisione del 99% per gli uomini bianchi e una del 34% per le donne con carnagione scura. La causa: gli algoritmi usati da questi sistemi sono addestrati su immagini di soggetti prevalentemente maschili e di carnagione chiara.
L’UE ha fatto sapere di voler pubblicare un Codice Etico grazie al quale l’intelligenza artificiale non dovrà mai danneggiare la dignità, la sicurezza fisica, psicologica e finanziaria delle persone.
La proposta nasce proprio da un numero sempre più frequente di casi di discriminazione razziale o di genere dovuti a sistemi di AI per il riconoscimento facciale.
Il futuro dell’AI, dunque, dipende dalla capacità di risolvere l’annosa questione dei bias in AI, ovvero ciò che avviene quando le intelligenze artificiali provocano discriminazioni sociali a partire da pregiudizi umani insiti nella tecnologia. La questione riguarda intelligenza artificiale, etica e morale ma anche i livelli di privacy che i sistemi di AI sono in grado di assicurare a chi la utilizza.
Nell’immaginario collettivo, le macchine sono percepite come sistemi oggettivi, lontani dalle passioni umane dunque è naturale chiedersi: “Come può una macchina essere razzista o maschilista?”.
La risposta è facile: gli algoritmi sono progettati da esseri umani e addestrati su dati prodotti da esseri umani, quasi sempre infarciti di bias. Anche il contesto in cui viene sviluppata una soluzione di intelligenza artificiale è suscettibile di distorsioni. La letteratura sul tema ci racconta che esistono ben 23 tipologie di bias che in un modo o nell’altro possono incidere su un progetto di AI e distorcerne i risultati.
Insomma, la faziosità è propria dell’essere umano e le macchine possono moltiplicarla, il che rende ancora più difficile individuare ed eliminare l’errore nell’algoritmo.
Il primo passo verso un’intelligenza artificiale più etica e inclusiva è sviluppare un’adeguata consapevolezza del problema.
Una Fair AI, cioè un’intelligenza artificiale giusta ed equa, è un’intelligenza artificiale sviluppata in maniera pragmatica, che si assume l’impegno di testare il suo algoritmo in un contesto quanto più simile a quello reale in cui verrà applicata e che dimostri di funzionare per tutti.
Per raggiungere l’AI Fairness però, è necessario utilizzare set di dati realmente rappresentativi, in cui eventuali distorsioni rispetto al reale vengano eliminate e in cui siano inclusi gruppi e comunità fino a oggi ignorati.
Inoltre, è necessario sviluppare protocolli che controllino in maniera rigorosa l’intero ciclo di produzione di soluzioni basate su AI, a partire dalla scelta dei modelli fino alla distribuzione a chi li utilizzerà.
Il tema dei bias nell’AI è molto importante per chi si occupa di progettazione e sviluppo di software di intelligenza artificiale, come Indigo.ai, perché offre grandi opportunità di ridurre l’effetto dei pregiudizi umani.
Per scoprire soluzioni migliori, cogliere queste opportunità e rendere l’intelligenza artificiale più fair è necessario uscire dal campo informatico e dell’ingegneria. Chi sviluppa l’AI deve impegnarsi a farlo nel migliore dei modi ma anche chi la utilizza deve chiedere a gran voce maggiore equità, responsabilità, etica e imparzialità di questa tecnologia.