Sappiamo che le intelligenze artificiali che sfruttano modelli di linguaggio complessi tendono sempre di più verso una perfetta imitazione dell’umano. Così, grazie a GPT-3, il nuovissimo language model sviluppato da OpenAI e finanziato da Microsoft, stabilire se un testo sia stato scritto da un uomo o da un software è praticamente impossibile. Lo ha dimostrato un celebre “esperimento” del Guardian che ha tenuto sveglia la comunità scientifica per l’eccitazione.
Se da un lato, infatti, l’avanzamento tecnologico dei sistemi GPT lascia immaginare un futuro roseo per l’intelligenza artificiale in ambito educativo e non solo, dall’altro le implicazioni etiche di una tecnologia tanto sofisticata possono anche preoccupare. Come sarà possibile un domani distinguere tra fake news e fonti reali e attendibili, se questi sistemi finissero nelle mani sbagliate?
Che cos’è il GPT?
Il modello di linguaggio GPT sta per Generative Pre-trained Trasformer, ovvero un sistema che utilizza il Deep Learning per produrre testi simili in tutto e per tutto a quelli che scriverebbe un essere umano. La novità di queste intelligenze artificiali sta nella quantità immensa di parametri con cui il software apprende e crea.
La nascita delle reti Transformers, infatti, è stata un incredibile passo avanti rispetto ai primi programmi di intelligenza artificiale conversazionale BERT. Questi riuscivano a completare un testo su input dell’essere umano, mentre i modelli GPT sono capaci di crearlo quasi da zero. Hanno bisogno solo di un piccolissimo input, come una frase o addirittura un’immagine. E la loro tecnologie fa passi da gigante di giorno in giorno. Basti pensare che il GPT-2 aveva a disposizione 1,5 miliardi di parametri e il GPT-3 ne utilizza ben 175 miliardi.
Certo, si tratta di dati grezzi, ma se queste intelligenze artificiali finissero nelle mani sbagliate? Basterebbero pochi impulsi da parte di chi sta dietro il pc per creare testi di fake news e diffondere tesi cospirazioniste in maniera del tutto credibile.
Gli esperimenti e le ricerche di OpenAI sui modelli GPT
Microsoft e OpenAI (nata come una non-profit) hanno annunciato di voler mettere sul mercato la licenza esclusiva di GPT-3. Questo significa che, seppure con i dovuti controlli e con una lunghissima lista d’attesa, avendo i fondi economici a disposizione, chiunque potrebbe acquistare il software.
A sottolineare la delicatezza di tutto ciò è stato il Guardian, che nel settembre 2020 ha attirato l’attenzione pubblicando questo articolo, scritto per metà da un giornalista e per metà dal sistema GPT. La differenza tra le due tipologie di scrittura è praticamente impercettibile, tanto che molti lettori non l’hanno notata affatto.
Cosa può voler dire tutto questo per il mondo della comunicazione?
Per indagare questi aspetti il Center on Terrorism, Extremism, and Counterterrorism (CTEC) ha usato il Language Generator nel mondo delle teorie complottiste ed estremiste.
Il risultato dimostra che, senza alcun input da parte dell’umano, GPT-3 fornisce informazioni assolutamente neutre e puramente informative su gruppi terroristici come il Siriano “gruppo Wagner”. È però bastato suggerire le prime risposte alle domande sulle teorie complottiste (come QAnon) per far sì che l’intelligenza artificiale proseguisse il dialogo presentando le tesi complottiste come reali.
Questo esperimento ha dimostrato che, se i gruppi estremisti di tutto il mondo mettessero mano sulla tecnologia dei Language Generator di ultima generazione, sarebbe molto più facile falsificare informazioni e generare fake news. Insomma, basta “addestrare” il sistema di Deep Learning di questi software per renderli delle vere armi nelle mani della contro-informazione.
Quindi bisognerebbe abbandonare il sistema GPT?
La soluzione non è così semplice: GPT-3 si è dimostrato una tecnologia efficace e utilissima nell’ambito dell’educazione. Per esempio, ha permesso a individui affetti da dislessia di produrre testi corretti e quindi aumentare il loro livello di successo nel sistema scolastico e lavorativo, abbattendo una barriera al momento limitante. Un’altra applicazione efficace nel mondo dell’educazione è stata riscontrata nella produzione di libri scolastici adeguati al reale livello di comprensione degli studenti.
Insomma, la tecnologia che sfrutta il natural language generation può migliorare la vita delle persone di tutto il mondo, in tantissimi ambiti. Ma anche essere una minaccia costante. Come coniugare queste due anime, permettendo al progresso tecnologico nei modelli di linguaggio di essere utile e non pericoloso?
Condivisione di regole e garanzie della sicurezza
L’introduzione di una figura che faccia da garante per l’uso corretto dei sistemi GTP di OpenAI sarebbe un buon punto di partenza, ma non certo infallibile. Nessun essere umano da solo può tenere il passo delle immense rivoluzioni tecnologiche nell’ambito dei Language Generator.
Sarebbe utile quindi condividere delle norme e leggi sia politiche che sociali, pensate a livello internazionale per combattere la diffusione di informazioni false ed estremismi ideologici. Educare le persone a un uso corretto ed etico della tecnologia GTP-3 e porre un freno all’addestramento del software è l’unico modo per sfruttarne i numerosi vantaggi senza rendere il progresso un’arma a doppio taglio.