Il machine learning applicato alla messaggistica automatizzata ha riportato il linguaggio in primo piano. Quello dei chatbot è un settore in cui ricerca e sviluppo vanno di pari passo con il lato business.
Due enormi mani mantengono qualcosa che resta nascosta nell’ombra. I pollici si alzano e si abbassano alternatamente e lo spettatore resta rapito dal movimento in slow motion cercando di indovinarne la gestualità.
Poi, l’illuminazione. Si tratta di una delle azioni più comuni tra gli esseri umani contemporanei: la composizione di un testo su uno smartphone.
Questa è una delle sequenze di Visitors, monumentale film del 2015 firmato da Godfrey Reggio, con musiche di Philipp Glass e prodotto da Steven Soderbergh.
Le sensazioni che quelle mani scatenano nel nostro immaginario – ancor prima che ne comprenda l’azione – confermano il rapporto viscerale che conserviamo con l’atto dello scrivere.
La riflessione di Reggio è un ottimo modo per centrare l’argomento su cui si fonda l’Natural Language Processing applicato al marketing conversazionale testuale: il linguaggio.
[toc]
Il dialogo
La più importante delle novità che la diffusione degli assistenti virtuali sta producendo è il ritorno alla scrittura come elemento prevalente rispetto all’Immagine (immagine intesa come raggruppamento dei vari elementi visivi che compongono le pagine delle applicazioni).
Siamo abituati ad un web reattivo, che risponde solo se interrogato e soltanto ad una domanda per volta.
E sappiamo bene che, il più delle volte, cerchiamo ben più di una risposta.
Facciamo un esempio concreto: l’acquisto di una camicia da donna, nonostante qualche dubbio sul colore e (forse) anche sulla taglia.
Per raggiungere il suo obiettivo, il nostro utente alla ricerca del capo dovrà svolgere vari compiti: trovare il modello di camicia sul sito di e-commerce, accertarsi della disponibiltà, confrontare le taglie, scegliere il colore e procedere all’acquisto.
Diversi compiti, spesso su pagine differenti.
Il chatbot cambia questo schema.
Attraverso lo strumento della conversazione si presenta come agente proattivo che guida l’utente all’interno della sua memoria, la banca dati nella quale sono presenti molti di quei compiti (informazioni e servizi) che abbiamo incontrato nel caso della camicia da acquistare.
Compiti che vengono svolti senza mai uscire dalla chat, attraverso bottoni, caroselli e gli altri strumenti inseriti nel flusso di dialogo.
LEGGI ANCHE: Come creare un chatbot?
Nuove professioni

La prevalenza della parola sul segno ha diversificato anche l’uso dell’espressione Web Design che non è più associata esclusivamente al segno grafico ma anche a quello testuale.
Da qui, nuove figure professionali come quella del Dialogue Designer, spesso ricoperta da linguisti, giornalisti, copywriters e psicologi.
Figure umanistiche che lavorano gomito a gomito con il Data Scientist.
Il più delle volte l’analista dei dati è un fisico o matematico, il suo compito è studiare e applicare i processi di apprendimento della macchina. Il suo strumento è il Natural Language Processing.
Natural language processing
Il processo che permette alla macchina di comprendere e relazionarsi con gli esseri umani è il Natural Language Processing (NLP) al quale si affianca molto spesso il Machine Learning, la tecnologia che si occupa di darle una capacità di apprendimento.
Gli assistenti virtuali più evoluti sono quelli sviluppati negli ultimi anni. Ma in realtà, quello che abbiamo oggi è il risultato di una evoluzione ormai cinquantennale.
Il passaggio fondamentale è stato quello dal mondo puramente conversazionale a quello dei chatbot come interfaccia multimediale, in cui convivono testo, immagini e bottoni di comando.
Un sistema integrato che modifica il significato e la funzione stessa del chatbot.

I primi esperimenti risalgono agli anni ’50 con il Test di Turingche consisteva nel far parlare, con la scrittura, una persona con un umano ed un bot che si alternavano a sua insaputa.
L’esperimento aveva successo se l’utente non si accorgeva della differenza tra l’uno e l’altro.
La sperimentazione si è interrotta negli anni ’90 a causa dello stadio ancora primitivo della tecnologia. Lo scoglio insuperabile era dare uno scopo specifico al bot (come ad esempio accade oggi i servizi di assistenza clienti).
Il modello dell’assistente virtuale generico – con il quale dialogare del più e del meno, come gli evolutissimi Siri e Google Assistant – sembrava impossibile da superare.
La svolta è arrivata recentemente, con la creazione di algoritmi più potenti e di nuovi canali che hanno permesso di “chiudere” i bot con obiettivi definiti, al servizio delle aziende.
LEGGI ANCHE: 11 chatbot che hanno cambiato il concetto di vendita
Dando uno scopo alla macchina, anche la User Experience ne ha risentito positivamente, diventando una scienza destinata al miglioramento della comprensione dell’utente.
Anche i bot specifici non sono una conquista ottenuta da un giorno all’altro.
Il bot di oggi
La ricerca sulle Reti Neurali Artificiali è iniziata negli anni ’80, ma l’utilizzo pratico della capacità computazionale applicata all’intelligenza artificiale risale agli anni 2000 con la loro applicazione al riconoscimento delle immagini.
L’applicazione al linguaggio, invece, è ancora più recente.
La potenza computazionale si evolve di giorno in giorno e permette di gestire quantità sempre più elevate di dati.
Gli algoritmi più performanti sono recentissimi e il settore è così giovane che il lato “ricerca e sviluppo” si evolve di pari passo con quello “business”.
Non a caso, se vi dovesse capitare di fare visita alla sede di una società di bot conversazionali, è facile che incontriate qualcuno alle prese con funzioni matematiche e schemi legati al sistema del linguaggio umano.
Word Embedding
Oggi il NLP è concentrato ha esteso il suo raggio di studio oltre la singola parola comprendendo interi blocchi, se non addirittura di intere frasi e paragrafi.
Un modus operandi che permette di fronteggiare in modo più efficace i problemi di disambiguazioneche spesso si presentano.
Infatti, non è raro imbattersi in parole che possono avere più significati.
La mappatura delle frasi e delle parole ha reso possibile evitare queste insidie, permettendo, ad esempio, di aggiudicare alla parola “pesca” il senso più coerente con il contesto in cui è inserita.

A fare questo enorme sforzo sono gli algoritmi avanzati, alla base delle così dette Reti Neurali Ricorrenti.
La macchina pesa le parole e le misura.
Ma come si fa a dare loro una forma? Non possiamo negarlo, non è esattamente come immaginarsi una barchetta in mezzo alle onde.
Proviamoci lo stesso. Immaginate uno spazio vettoriale – quindi multidimensionale – nel quale le parole vengono disposte più o meno lontane le une dalle altre, in base alla loro semantica.
Un lavoro preziosissimo, ad esempio, per una mappatura dei sinonimi e contrari.
Il nome di questo processo è Word Embedding.

Espressioni dialettali, refusi ed errori grammaticali sono uno degli ostacoli più difficili da superare per un data scientist.
In passato lo Spell Checking si basava sul principio della similarità: in caso di errore di battitura, veniva consigliata una parola simile nel dizionario.
L’esempio perfetto e più diffuso è la correzione automatica che offre il pacchetto Office.
Il Machine Learning
La scoperta degli Algoritmi di Machine Learning (leggi: apprendimento automatico della macchina) ha permesso di andare oltre il word embedding, ottenendo un’analisi testuale che mette in relazione le singole parole con il contesto in cui si trovano.
Ma andiamo con ordine.
I più applicati oggi nella maessaggistica automatizzata sono di due tipi: supervisionato e non.
Essi trovano diretta applicazione nel Data-Driven Marketing dove i dati degli utenti sono utilizzati per creare strategie di comunicazione e vendita praticamente personalizzate.
In questo ambito, non è solo la quantità di contatti a fare la differenze ma anche la loro tipologia, quindi la loro qualità.
Trattandosi di algoritmi statistici, i risultati dipendono sia da come viene strutturato il modello e sia dal tipo di dati che vengono utilizzati.
Un modello applicato nel modo sbagliato può portare a conclusioni addirittura opposte rispetto al risultato sperato.
Come nel caso dell’algoritmo su cui si è basata la Riforma dell’Istruzione del governo Renzi che ha programmato la dislocazione di circa 100mila docenti sul territorio nazionale, senza tenere conto della provenienza geografica.
Il risultato è stata una ondata di ricorsi con conseguente richiesta di risarcimento danni.
Nella realizzazione di applicazioni e prodotti reali legati ai chatbots, il sistema più utilizzato è quello supervisionato.
Questo modello assolve all’esigenza business di controllare l’ouput di risposta all’utente che successivamente passa sotto la lente del NLP, ossia l’analisi del linguaggio naturale.

Ciò permette di definire con precisione l’identità dell’utenza finale e quindi anche quella del bot che, con dati sempre aggiornati, potrà migliorare il proprio compito.
Sia in ambito di ricerca che nelle applicazioni aziendali, si stanno diffondendo anche approcci non supervisionati che in molte applicazioni costituiscono lo stato dell’arte.
Un esempio è stata l’evoluzione che ha subito il tool di traduzione più usato online: Google Translate, al quale, dal novembre 2016, è stato applicato il Deep Learning, reti neurali profonde capaci di dare traduzioni coerenti di periodi complessi.
Ciò ha permesso al tool di fare passi in avanti mai raggiunti in 9 anni di vita.
Tale approccio, chiamato Google Neural Machine Translation, ha permesso di considerare traduzioni di intere frasi, a differenza di prima, quando le parole venivano analizzate indipendentemente dal contesto.
Questo esempio è perfetto anche per comprendere quale sia l’approccio del moderno machine learning all’apprendimento della lingua.
Il modello è quello del bambino che non parte dalle regole grammaticali ma dalla comprensione “sul campo”, esperienziale, delle lingue.