Per riconoscere, smascherare e combattere le fake news, un alleato fondamentale è diventato ormai l’Intelligenza Artificiale.
Creare notizie false sembra essere oggi assai più semplice d’un tempo, complice la democraticità degli strumenti a cui tutti possono accedere, complice anche il particolare contesto storico in cui stiamo vivendo. Un esempio, in tal senso, è il deepfake.
La pandemia da Covid-19 ha visto il proliferare di fake news sul Coronavirus e una predisposizione generale ad assumere come veritiere anche le bufale più evidenti, non ultima quella su 5G e Coronavirus.
Le notizie false si alimentano della buona fede delle persone, creano allarmismi, agiscono sull’inconscio collettivo portando anche a sviluppare sentimenti di rabbia contro individui o gruppi.
I Fact Checker non bastano più per smascherare le notizie false, ecco perché abbiamo bisogno dell’intelligenza artificiale.
Viviamo in un’epoca in cui tutti sembrano avere diritto alla propria realtà. «È vero perché lo dico io» o anche «è vero perché l’ho letto in un articolo» ma sappiamo bene che se tutti hanno diritto di parola, non tutto ciò che viene detto o scritto corrisponde al vero.
Ecco perché per smascherare le notizie false non bastano più i cosiddetti fact checker, cioè coloro che verificano notizie di mestiere. Non sempre però, è facile riconoscere una fake news perché la mole di dati che bisogna controllare è enorme. Ed è proprio in questo contesto che intelligenza artificiale e informazione si incontrano.
“Come l’intelligenza artificiale può rilevare le fake news”. Questo è il titolo di un articolo pubblicato sul Telegraph in cui si spiega come l’intelligenza artificiale venga oggi usata nel campo dell’informazione mediatica per riconoscere le notizie false.
Il successo di questa nuova applicazione dell’AI è voluto fortemente dalle istituzioni. Tra i player che guidano la ricerca, infatti, ci sono il Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT in collaborazione con il Qatar Computing Research Institute (QCRI).
I ricercatori coinvolti nello studio utilizzano vari metodi per analizzare le fonti delle notizie: dai siti dei media, agli account Twitter associati, dalla reputazione della fonte ai dati sul traffico web. L’obiettivo di queste analisi è stilare una sorta di classifica di alta, media e bassa veridicità.
Esistono anche altri esempi di intelligenza artificiale in grado di riconoscere fake news. Ad esempio, Grover, creato dall’Università di Washington, e Fandango, finanziato dall’Unione Europea. O anche quello dell’Università di Harvard e del MIT-IBM Watson AI Lab, che hanno creato GLTR (Giant Language Model Test Room). Si tratta di uno strumento nato per aiutare a combattere la diffusione della disinformazione. In questo caso, l’intelligenza artificiale viene utilizzata per rilevare i modelli di testo statistici.
Anche l’Italia inizia a dare i primi segnali nella lotta alle fake news. Pagella Politica, da anni impegnata in prima linea in questo ambito, ha da poco lanciato un nuovo progetto per aiutare le persone a fare chiarezza sulle ormai tante fake news sul Coronavirus
L’intelligenza artificiale si sta dimostrando un’arma importante nella lotta all’infodemia da Coronavirus.
Dai robot sviluppati per svolgere la prima diagnosi ai software che effettuano previsioni sui contagi, con gradi di certezza elevati, l’intelligenza artificiale si sta dimostrando un’arma importante anche nella lotta al Coronavirus.
Il ruolo dell’AI nella lotta al Covid-19 però, non si limita soltanto all’ambito prettamente sanitario. Da domande come “È vero che indossare la mascherina fa male?” a interrogativi più sui generis come “È vero che Bill Gates aveva creato il vaccino contro il Coronavirus nel 2014?”, sono tante le questioni più o meno verosimili che nel corso degli ultimi mesi ci siamo trovati a leggere, ascoltare, cercare di comprendere. Molte di queste pseudo notizie viaggiano attraverso chat private o messaggi WhatsApp ma anche attraverso canali che hanno o potrebbero avere una risonanza mediatica maggiore come articoli di giornale o post condivisi su Facebook.
Quante volte, di fronte a notizie come queste, le nostre certezze hanno vacillato, o ci abbiamo creduto?
Se il fenomeno delle fake news è pericoloso tout court, lo è ancor di più in un contesto di fragilità emotiva globale in cui oggetto delle notizie false è quasi sempre la nostra salute.
L’OMS ha parlato di infodemia, ossia una diffusione eccessiva di notizie false, fuorvianti o dalle fonti poco attendibili. Proprio per questo motivo, player come Facebook e l’International Fact-Checking Network hanno dato vita ad un bando internazionale dal nome “Coronavirus Fact-Checking Grants” per dare una risposta concreta all’emergenza di tutelare le persone su un argomento così delicato.
Nasce Vera, la prima applicazione di un assistente conversazionale a una piattaforma di news e fact-checking
Nell’ambito di questo impegno per la collettività è nata Vera, il chatbot che aiuta a verificare notizie e avere informazioni affidabili sul Covid-19, creato da Indigo.ai in collaborazione con Pagella Politica, Facta, Irccs Ospedale San Raffaele ed Eurecom.
Vera è un’agente intelligente di tipo assistente conversazionale che risponde alle domande degli utenti sul Coronavirus e lo guida attraverso le risposte per fornire più informazioni.
Si tratta della prima applicazione di un assistente conversazionale a una piattaforma di news e fact-checking.
Vera è uno strumento rivoluzionario perché è in grado di individuare anche le notizie false apparentemente vere. Infatti, se alcune fake news suonano così false da smascherarsi da sole, altre invece sembrano (o meglio, sono!) costruite talmente bene da ingannare anche i fact checker più attenti e competenti.
Un esempio: la bufala su 5G e Coronavirus.
Per un certo periodo si è diffusa la bufala secondo cui il 5G potesse essere considerato la causa principale della diffusione del Coronavirus.
Esperti di ogni ambito, tecnici e virologi, si sono impegnati per smentire la notizia e oggi è abbastanza accessibile alla comprensione di tutti che tra 5G ed epidemia da Covid-19 non esiste alcun nesso.
Non è altrettanto immediata la comprensione di altri dati, ad esempio risulta più difficile sapere se il tasso di mortalità riportato da un sito sia giusto o sbagliato. Il buon senso aiuta nella comprensione delle notizie, ma l’approccio scientifico è l’unico che può davvero funzionare per combattere le fake news.
Come fa l’intelligenza artificiale a riconoscere una fake news?
Ecco quindi che forme di intelligenza artificiale all’avanguardia incentrate sullo sviluppo di algoritmi di apprendimento profondo, meglio conosciuto come Deep Learning, sono oggi fondamentali per il fact-checking e la lotta all’infodemia da Covid-19.
Un tempo l’intelligenza artificiale si basava su modelli statistico-matematici che partivano da forti assunzioni iniziali per “modellizzare i dati”. L’obiettivo era creare un modello che rappresentasse la realtà, il cosiddetto bias induttivo.
Oggi invece, nel campo dell’AI si percorre la tendenza dell’apprendimento profondo, una sottocategoria del machine learning basata sul concetto di reti neurali artificiali.
Questo tipo di intelligenza artificiale è in grado di fare previsioni e prendere decisioni in modo indipendente perché le reti neurali riescono a crearsi in autonomia una rappresentazione dei dati e quindi viene meno l’esigenza di forti assunzioni iniziali su cui gli esperti in data science dovrebbero basarsi per elaborare i modelli.
Ad oggi, i migliori risultati sono ottenuti dalle reti transformers, che simulano la capacità di attenzione dell’essere umano. Ad esempio, quando leggiamo una frase, alcune parole sono più rilevanti di altre per coglierne il senso. Oppure, quando osserviamo un’immagine, alcuni particolari o dettagli ci fanno distinguere un oggetto o riconoscere una persona.
Questa innovazione ha portato ad una vera svolta in termini di risultati, rendendo l’intelligenza artificiale sempre più umana.
Un esempio recente e straordinario è GPT-3, un modello di generazione di testo sviluppato da OpenAi e capace di produrre articoli come se fossero scritti da una persona.
Proprio perché la linea di confine tra il prodotto della creatività umana e quello dell’intelligenza artificiale è così labile, diventa sempre più necessario supervisionare ciò che viene prodotto dall’AI, come viene fatto nel caso del fact-checking.
Vuoi scoprire da vicino come funzionano gli agenti intelligenti Indigo.ai?