L’applicazione dell’intelligenza artificiale a diversi contesti, dalla gestione dei dati al supporto ai processi aziendali, ha portato sia i ricercatori e gli sviluppatori nel campo dell’AI, sia gli Innovation Manager, a porsi molti interrogativi in merito alla tutela della privacy.
Ci si chiede, infatti, se intelligenza artificiale e privacy possano convivere e in che modo la protezione dei dati personali potrebbe limitare l’uso dell’AI in ambiti di vario tipo, da quello professionale a quello personale.
Dalla Commissione Europea e dalla giurisprudenza, arrivano i chiarimenti in materia di GDPR, intelligenza artificiale, protezione e trattamento dati.
Uno studio del Parlamento Europeo sul rapporto tra intelligenza artificiale e privacy
Nel mese di Giugno 2020, il Parlamento Europeo ha pubblicato uno studio sul tema del rapporto tra intelligenza artificiale e privacy dal titolo The impact of the General Data Protection Regulation (GDPR) on artificial intelligence.
Lo studio parte da un’analisi generale dello stato dell’arte, dai dati sull’uso di internet e sulla quantità di dati condivisi alla questione etica, citando anche il caso Cambridge Analytica, per arrivare ad analizzare aspetti normativi come i principi di protezione dei dati, i doveri di informazioni sui sistemi di AI utilizzati, in particolare quelli che coinvolgono attività di profilazione e processi decisionali automatizzati, e i diritti di accesso, cancellazione, portabilità e opposizione al trattamento dati da parte degli interessati.
La conclusione è che le soluzioni di intelligenza artificiale possono essere implementate in modo coerente con le linee guida prescritte dalla GDPR ma che queste richiedono aggiornamenti e migliorie già in atto.
Il risultato è un documento al quale si può fare ampio riferimento per comprendere come regolare il rapporto tra AI e protezione dei dati personali in modo consapevole.
Limiti della GDPR a proposito di intelligenza artificiale
Lo studio evidenzia come la GDPR non menzioni l’intelligenza artificiale, ma comunque fornisca dei principi generali che possono essere applicati anche a tale ambito.
Correlando intelligenza artificiale e data protection sarebbe possibile, secondo lo studio, trovare comunque un compromesso che consenta sia di svolgere l’attività sia di proteggere i dati personali.
I principi della GDPR, quindi, dovrebbero essere interpretati in modo da non andare a escludere la possibilità di creare dei dataset che abbiano come obiettivo l’istruzione dei sistemi di intelligenza artificiale, così come la costruzione di modelli algoritmici.
Si suggerisce, quindi, un’applicazione flessibile del concetto di compatibilità del trattamento, in modo tale da renderlo, a sua volta, nuovamente compatibile con l’intelligenza artificiale.
La tutela degli interessati e la trasparenza
Un altro elemento che viene inserito nello studio riguarda la tutela degli interessati e dei loro dati.
Si sottolinea, quindi, la necessità di garantire la trasparenza nei confronti dei soggetti i cui dati sono trattati, fornendo delle informazioni che diano la possibilità di comprendere quale sia l’obiettivo ultimo del trattamento effettuato.
Ciò comporta la necessità di mostrare sempre una privacy policy all’inizio della conversazione tra utente e chatbot, soprattutto nel caso in cui le suddette conversazioni richiedano l’utilizzo di dati personali per poter accedere ad uno specifico set di informazioni.
Quindi, si dovrebbe non solo informare ma anche cercare di comprendere se il consenso informato dato dalla persona sia basato su un’effettiva comprensione dei limiti e dei diritti dell’azienda o del soggetto che si occupa del trattamento dati.
Infine, bisognerebbe rendere più standard e semplici anche le modalità con le quali i soggetti i cui dati siano stati sottoposti al trattamento possano accedere a tali informazioni e decidere, ad esempio, di farle cancellare.
La posizione della Commissione Europea su intelligenza artificiale e trattamento dati
Sul tema riferito al trattamento dei dati e all’intelligenza artificiale è intervenuta di recente anche la Commissione Europea.
Questo organismo ha sottolineato quanto l’AI sia importante e possa portare a impieghi utili per tutta la collettività ma ha voluto specificare anche le criticità legate allo sviluppo di sistemi di intelligenza artificiale in accordo con la protezione dei dati.
La Commissione Europea, quindi, ha formulato una proposta che comprende:
- La determinazione di una nuova legislazione specifica sull’AI, che sia adeguata ma che non limiti l’innovazione.
- La necessità che i sistemi di intelligenza artificiale che abbiano un rischio elevato siano trasparenti, tracciabili e anche subordinati al controllo umano.
- La possibilità da parte delle autorità di effettuare controlli sui sistemi.
- L’avvio di un dibattito relativo al rapporto tra privacy, tutela dei dati e riconoscimento facciale.
Questa proposta, che non è ancora diventata legge, si allinea con quanto è già stato indicato nello studio riferito al rapporto tra GDPR e intelligenza artificiale.
A ciò si aggiunge anche la necessità di un aggiornamento della cosiddetta Convenzione 108 del Consiglio Europeo. Questo insieme di disposizioni risale al 1981 e ha rappresentato il primo strumento internazionale realmente vincolante nel campo della data protection.
Intelligenza artificiale e giurisprudenza: prospettive su responsabilità civile e penale
Anche se le Corti non si sono ancora pronunciate in modo specifico sull’intelligenza artificiale, esistono dei profili di vulnerabilità che sono stati individuati in un recente articolo del Professor Fabio Basile riferiti al rapporto tra AI e diritto penale.
Se, infatti, un tempo si pensava alle macchine come a strumenti che non potessero agire con una propria volontà, ora, aprendosi la strada a sistemi di intelligenza artificiale sempre più sofisticati, si potrebbe pensare davvero all’attribuzione della responsabilità penale a un computer.
Il Professor Basile ha teorizzato la possibilità per la quale un dispositivo potrebbe essere individuato sia come strumento sia come autore, o addirittura vittima, di un reato. Ovviamente, questi sono solo profili teorici ma nulla impedisce che in un futuro si possa arrivare a parlare di intelligenza artificiale in questo modo nelle Corti di tutto il mondo.
La tutela della privacy in pratica: un caso studio
Proprio in relazione alla necessità di tutelare la privacy degli utenti, si possono prendere in considerazione alcuni esempi virtuosi nei quali sono stati sviluppati progetti che, non solo hanno rivoluzionato l’interazione con il cliente o l’utente in generale ma hanno sempre tenuto in grande considerazione la tutela dei dati personali.
Un esempio interessante riguarda il settore bancario.
Per Santander Consumer Bank, Indigo.ai ha progettato un nuovo assistente virtuale destinato al sito istituzionale della banca, con l’obiettivo di migliorare la customer experience e offrire ai propri interlocutori una banca digitale a misura di utente.
Come succede in tanti altri settori, il Banking è ovviamente interessato da un flusso continuo di dati sensibili e informazioni personali che necessitano il giusto trattamento nel pieno rispetto della normativa. L’AI, come quella che Indigo.ai ha realizzato per la banca, non può non essere progettata per garantire la massima riservatezza degli utenti e dei loro dati.
Vuoi saperne di più sulla piattaforma AI di Indigo.ai?