“Artificial Intelligence and Gender Equality” è il titolo del report presentato nel 2020 dall’Unesco che mostra un quadro sconfortante a proposito di gender gap e intelligenza artificiale.
Oltre al decisivo divario di genere presente nel mondo del digitale e della tecnologia, anche la creazione di chatbot e intelligenze artificiali pone problemi di sessismo che potrebbero ulteriormente alimentare quelli della vita “reale”.
D’altra parte la tecnologia e l’uso del digitale riflettono il mondo in cui ci muoviamo e rischiano di amplificarne le problematiche intrinseche. Ma potrebbero anche essere la chiave di volta per modificare il nostro modo di approcciare il mondo e le politiche di genere. Affrontando lo spinoso legame tra questioni etiche e intelligenza artificiale, si può sfruttare il digitale per migliorare il reale.
Linguaggio e disuguaglianza di genere, online e offline
Quello che accade nel mondo digitale non fa che rispecchiare principi, valori e anche disvalori del mondo reale. Così, le problematiche di genere che riguardano un linguaggio sessista e discriminatorio, se non controllate, si riflettono direttamente sul modo di percepire e interagire con una voce artificiale.
Per molti anni, già dal 2011, si è parlato di quanto fosse problematica l’esistenza di un’assistente vocale con voce femminile. Questo perché è stato più volte rimarcato dalla psicologia e dalla sociologia che si tende a ritenere più rassicurante e dimessa una voce di donna, più autorevole e corretta una maschile. Per questo negli anni Siri, Alexa e compagnia hanno dovuto subire molestie verbali molto simili a quelle che le donne affrontano per le strade del mondo reale.
Ma quale potrebbe essere la soluzione? Forse dare una voce neutra agli assistenti virtuali? In questo modo, però, si perderebbero quelle caratteristiche che i programmatori ricercano nel dare una personalità ai chatbot e agli assistenti vocali. Quindi come risolvere il gender GAP anche tra le intelligenze artificiali?
Cos’è il gender GAP?
Prima di addentrarci nel discorso specifico delle intelligenze artificiali è necessario capire cosa sia il gender GAP e come possa influenzare il nostro modo di vivere il mondo.
Il report 2020 dell’Unesco sottolinea una decisa predominanza degli uomini nei posti di lavoro più ambiti del settore digital e una conseguente differenza di salario, di possibilità di promozioni e di prestigio tra uomini e donne che lavorano in questo ambito.
E non è stata l’unica ricerca a riscontrare questi dati desolanti: uno studio di LivePerson dimostra come il 91,7% degli intervistati non sappia rispondere alla domanda “Nomina una donna leader nel settore tech”. Chi ha saputo rispondere, ha nominato proprio un assistente vocale dotato di voce femminile, come Siri o Alexa. Il che stride terribilmente con quanto detto sopra.
Se Siri, Alexa e gli altri assistenti virtuali con nomi e voci femminili sono considerati dei leader, perché ricevono insulti sessisti?
Perché il gender GAP nell’intelligenza artificiale è purtroppo tanto radicato quanto nel mondo reale. Così le differenze tra voce maschile e femminile che creano discriminazione tra gli esseri umani (basti pensare al “dottore” se al telefono risponde un uomo, “signorina” se risponde una donna) sono replicati anche nel mondo dell’intelligenza artificiale.
Aziende come Indigo.ai che si occupano di intelligenza artificiale a tutti i livelli non possono rimanere in disparte quando si dibatte di sessismo nel digitale. Un’azione va intrapresa, un’azione decisa e convinta verso la riduzione del gender GAP.
Un primo passo è quello di dare una personalità all’IA in modo che rispetti le problematiche etiche e sociali delle disuguaglianze di genere.
Solo dopo che il problema è stato sottolineato, i programmatori di Siri le hanno insegnato a replicare “Non so come rispondere a questo” quando viene insultata. Per anni è stata la donna dimessa, debole e superficiale che agli insulti sessisti arrossiva. Un modello di femminilità così inerme, perfino lusingata da allusioni e insulti, non è più accettabile. Cosa possono fare a questo punto le aziende, sempre più attente ai temi dell’inclusività e dell’uguaglianza?
Sperimentare diverse opzioni, per esempio. Ciò permetterebbe ai programmatori e ai ricercatori di studiare la reazione degli utenti al cambiare della voce dell’assistente vocale, fino a raggiungere il giusto compromesso tra personalità e asessualità.
Un tono di voce neutro, infatti, potrebbe essere troppo “robotico” e scoraggiare un’interazione naturale con l’essere umano, mentre l’eccessiva sessualizzazione dell’assistente virtuale provoca le discriminazioni che già troppo spesso viviamo in presenza.
Per affrontare il problema di genere nell’intelligenza artificiale, Indigo.ai ha creato Persona, un tool che permette di plasmare la personalità del chatbot o voicebot dalla A alla Z.
Oltre a deciderne le caratteristiche e inserirle nello script delle diverse risposte, si può anche guardare il problema di genere da un’altra prospettiva. Prevedendo i possibili problemi etici, sociali e discriminatori, il programmatore può “educare” l’IA alla sensibilità e a una risposta ferma e decisa agli insulti di ogni tipo.
Accorciando così pian piano il gender GAP tra le intelligenze artificiali maschili e femminili.