Un chatbot intelligente è una risorsa preziosa per qualsiasi business. Ma cosa succede se l’intelligenza artificiale delude l’utente? Succede tutta una serie di cose, riassumibile in: perdita del cliente da parte dell’azienda.
Indigo.ai ha messo a punto un software di intelligenza artificiale che riduce al minimo le occasioni in cui il chatbot non sa cosa rispondere, e le utilizza come preziose informazioni per i processi di Machine Learning.
Perché a volte il chatbot non sa cosa rispondere?
Si tratta di una situazione estremamente frustrante per l’utente, che si è rivolto all’intelligenza artificiale per risolvere un qualsiasi dubbio o problema. Capita a volte che il chatbot intelligente… non sia così intelligente. O meglio, non abbia un metodo di apprendimento supervisionato o non sia stato ben programmato.
L’apprendimento supervisionato (Supervised Learning)
L’apprendimento supervisionato è un metodo di apprendimento utilizzato per istruire l’intelligenza artificiale, che porta all’addestramento di modelli di classificazione e/o regressione. Il vantaggio di questo metodo è di sfruttare dati che sono stati etichettati da esseri umani (sono quindi supervisionati da persone in carne ed ossa).
L’apprendimento supervisionato prevede l’utilizzo di dati di input e di risposte note (output), usate per permettere all’AI di “prevedere” in maniera autonoma la risposta più corretta all’input. L’intelligenza artificiale impara quindi a sviluppare autonomamente una regola generale per la risoluzione di un problema e sarà poi in grado di applicare la stessa regola a contesti simili.
I modelli predittivi sviluppati dall’AI durante l’apprendimento supervisionato sono detti “classificazioni” quando si tratta di discernere tra due o più risposte catalogate (email spam vs. email non spam; etichetta A o etichetta B; ecc.). Durante la fase di addestramento, il modello genera delle classificazioni per gli input che riceve, le quali vengono confrontate con l’output supervisionato.Proprio da questo confronto il modello ottiene l’informazione che gli permette di imparare a classificare correttamente i futuri input.
Il sistema analizza le differenze tra il proprio risultato e quello corretto, fino a ridurre al minimo la possibilità di errore. Può ancora verificarsi il caso in cui il chatbot restituisce errori all’utente, non sappia rispondere o dia la risposta sbagliata.
Per esempio:
- ripete continuamente la stessa risposta;
- non coglie il significato della domanda e fornisce una risposta sbagliata;
- non riconosce le sfumature di significato nella domanda;
- non ha una personalità abbastanza sviluppata (o il contrario);
- è stato programmato con uno scorretto metodo di apprendimento supervisionato.
Insomma, non è colpa del chatbot se non sa cosa rispondere, ma è comunque necessario risolvere il problema.
La causa a monte si ritrova spesso nella programmazione di software troppo rigidi nelle etichettature, non adatti alle reali necessità dell’azienda o programmati “male”. Se il bot non funziona, l’azienda che se ne serve rischia di perdere credibilità online o di vedere ridotte le conversioni.
Cosa succede quando il bot non funziona
Prevedere cosa farà il chatbot di volta in volta davanti a un input dell’utente è compito di programmatori esperti in AI. Le reazioni dell’utente quando il chatbot non sa rispondere, invece, sono abbastanza facili da comprendere per tutti.
Chiunque si sia trovato dalla parte del cliente sa perfettamente come ci si sente: frustrati, nervosi, incapaci di procedere con le attività che si vorrebbero svolgere sul sito web. La conseguenza? Si abbandona il sito, si lascia una cattiva recensione o si cambia fornitore per ottenere il prodotto o il servizio in maniera più veloce ed efficiente.
Dall’altra parte, all’azienda è successo qualcosa di molto grave: ha perso un lead. Ha perso un potenziale cliente che, frustrato dall’esperienza, potrebbe anche minare la sua reputazione online e non solo. Insomma, bisogna correre ai ripari.
La soluzione Indigo.ai per Poste Italiane: l’AI riduce il margine di errore e utilizza in maniera produttiva le occasioni in cui il chatbot non sa cosa rispondere
Ecco il nocciolo della questione: il bot non funziona, come si risolve? Indigo.ai ha trovato la sua soluzione intelligente, efficiente e flessibile che riduce il margine di errore e utilizza in maniera produttiva le occasioni in cui il chatbot non sa cosa rispondere.
Lo ha fatto studiando un caso estremamente complesso, ovvero quello di Poste Italiane. A partire dalle criticità presenti sul chatbot intelligente dell’azienda, è stato possibile migliorare la situazione andando a lavorare sulle applicazioni del Natural Language Processing. Il problema, in quel caso come in tanti altri, era l’errato apprendimento supervisionato del software usato.
Il chatbot non era in grado di comprendere alcune richieste degli utenti semplicemente perché non sapeva analizzarle, decodificarle e categorizzare quei messaggi con un’etichetta che ne indicasse il significato. Questo perché Poste Italiane usava un software AI poco user-friendly. Le grandi piattaforme, che possono essere usate solo da programmatori esperti, non sono adatte alle reali esigenze di un’azienda che ha a che fare con milioni di utenti con competenze informatiche di medio o basso livello.
La gestione degli scarti come soluzione agli errori del chatbot
Il primo passo di Indigo.ai è stata l’installazione on top sul sistema esistente del suo software AI molto più flessibile e intuitivo da usare, anche per gli impiegati che non siano esperti in programmazione. Sapere come usare il chatbot è infatti essenziale per chi deve gestire questi software e contemporaneamente soddisfare gli utenti.
Come usare il chatbot di Indigo.ai è presto detto. I sistemi come Q&A chatbot, il bot che risponde alle domande, sono software flessibili che a partire da determinate parole chiave soddisfano le esigenze della maggior parte degli utenti. E gli altri? Le richieste che non rientrano tra quelle codificate entrano nel sistema della “gestione degli scarti”. Ovvero, vanno a finire in una cartella dove un impiegato si occuperà di etichettarle e inserirle nella giusta categoria di richieste.
In questo modo, grazie ai metodi di apprendimento basati sul machine learning, il chatbot che non sa cosa rispondere può imparare a farlo. Ogni domanda “nuova” fa nascere una nuova etichetta e quindi invita l’intelligenza artificiale ad acquisire nuove capacità di apprendimento. Il tutto evitando che il cliente rimanga frustrato e insoddisfatto.
Scopri di più sulla soluzione Indigo.ai per Poste Italiane. Richiedi una demo del nostro software di intelligenza artificiale.