I chatbot AI sono ovunque: scrivono poesie, ti consigliano ricette, magari ti danno pure dritte sul prossimo viaggio. Ma tra un modello tuttologo e un bot capace di risolvere davvero i problemi della tua azienda… c’è un bel salto.
Quel salto si chiama personalizzazione.
Spoiler: non a discutere di filosofia greca. Un chatbot personalizzato nasce per rispondere rapidamente e con precisione a ciò che interessa davvero al tuo business.
Esempi concreti:
In breve: un collega digitale che non va mai in ferie e non conosce la parola burnout.
GPT (ChatGPT, Claude, Gemini, ecc.) è addestrato su testi generici. Ottimo per scrivere un haiku sul meteo di Londra, meno per citarti la tua policy di reso o il listino prezzi aggiornato.
Il bot personalizzato ha invece un diverso superpotere: non sa tutto, ma sa il tuo mondo. Non chiacchiera di argomenti a caso: rimane focalizzato su prodotti, procedure e documenti aziendali. E fidati: nel lavoro quotidiano è molto meglio avere un bot specialista che un tuttologo.
La knowledge base è la fonte della sua saggezza: manuali, FAQ, regolamenti, guide interne e, più in genere, ogni tipo di documento aziendale. È ciò che rende il bot un archivista digitale che non dimentica nulla.
Se l’azienda è un castello di informazioni sparse, la knowledge base è la biblioteca centrale. Solo che al posto del bibliotecario c’è un bot che risponde in linguaggio naturale e non ti fa attendere.
I vari GPT rispondono sulla base del prompt fornito dall’utente e cercando sul web o nelle informazioni su cui sono stati addestrati… come è possibile far sì che leggano nella nostra knowledge base?
Una soluzione molto semplice è quella di inserire tutta la knowledge base dentro il prompt, creando un prompt del tipo: Rispondi a questa domanda dell’utente utilizzaando le seguenti informazioni: <<testi della knowledge base>>.
Geniale, no? Beh… fino a un certo punto: perché i bot AI non sono in grado di gestire prompt troppo lunghi: questa soluzione funziona solo se la knowledge base è composta da pochi documenti!
E se la knowledge base è composta da decine e decine di documenti?
E qui entra in gioco la magia tecnologica, alias RAG – Retrieval Augmented Generation.
RAG funziona sostanzialmente come un grande indice analitico della knowledge base: quando l’utente pone una domanda, RAG cerca nell’indice analitico i documenti più attinenti alla richiesta e li inserisce nel prompt: il bot AI risponde quindi alla domanda dell’utente basandosi solo sui test inseriti da RAG nel prompt.
Qualche dettaglio tecnico
Il primo passo per la creazione di un sistema RAG è l’indicizzazione dei contenuti della knowledge base: i documenti (eventualmente -se lunghi- suddivisi in pezzi chiamati chunk) vengono trasformati in vettori (una rappresentazione numerica del loro significato) attraverso un processo chiamato embedding e questi vettori vengono salvati assieme al testo corrispondente dentro una database vettoriale.
Quando l’utente pone una richiesta al bot, anche la richiesta viene trasformata in un vettore numerico (sempre grazie all’embedding); il database vettoriale ricerca poi i vettori più simili (semanticamente) alla domanda dell’utente e restituisce un elenco dei documenti corrispondenti (per esempio i 5 o 10 documenti più simili).
Il sistema costruisce poi un prompt in cui si chiede al bot AI di rispondere alla domanda dell’utente basandosi esclusivamente sui (pochi) testi individuati.
Non è un oracolo, e conviene ricordarselo:
In poche parole: se in azienda regna il caos informativo, il bot non lo risolverà per magia.
RAG ha inoltre un limite intrinseco: con RAG l’AI fornisce la risposta basandosi su pochi documenti (tipicamente 5 o 10) e non è quindi in grado di rispondere a richieste che richiedono di accedere a tutta la knowledge base.
Se, per esempio, la KB è composta da centinaia di schede prodotto, il bot AI personalizzato risponderà perfettamente a domande tipo “Quale prodotto è adatto per….”, “Il prodotto xxx ha questa caratteristica?” ma non sarà in grado di rispondere efficacemente a domande quali “Elencami tutti i prodotti”, “Quale è il prodotto più economico?” e altre domande che richiedono di esaminare tutta la KB.
Per ovviare a questo limite bisogna lavorare sulla knowledge base, fornendo documenti di riepilogo (come un listino prezzo, un elenco di tutti i prodotti, ecc.) creati pensando alle possibili richieste degli utenti.
Le knowledge base sono ottime per rispondere a domande basate su documenti statici, che subiscono poche variazioni nel tempo.
Ma cosa fare se vogliamo che il bot risponda ai clienti con informazioni sull’ordine che hanno fatto? O su dati contenuti in un database?
I bot AI non sono in grado di leggere autonomamente dentro un database, ma possono usare delle funzioni (tools) appositamente costruiti: si crea una funzione (di solito una API) che legge i dati dal database e li restituisce al bot; il bot risponderà all’utente basandosi sui dati così recuparati.
Dietro le quinte non c’è quindi solo qualche PDF buttato dentro a una cartella, ma una struttura a blocchi che occorre orchestrare attentamente:
Risultato: meno confusione, più coerenza.
Qui le strade possibili sono due.
Perfette per partire senza scrivere codice. Alcuni esempi:
Pro: velocità, costi contenuti, semplicità.
Contro: personalizzazione limitata, dipendenza dalla piattaforma, limiti significativi in alcune funzionalità. Se si vuole andare oltre i limiti della piattaforma bisogna ricominciare tutto da zero con un altro approccio.
La strada hardcore: qui servono sviluppatori, ma il risultato è su misura. Occorrerà orchestrare i vari componenti del bot usando strumenti specifici
Pro: massima flessibilità, integrazione totale con sistemi aziendali.
Contro: complessità, tempi e costi più elevati.
Molti partono da una piattaforma rapida per un primo test e passano allo sviluppo custom quando il bot deve diventare un asset strategico, non più solo un esperimento.
Un chatbot AI personalizzato libera dalle parti noiose: FAQ, documenti infiniti, richieste ripetitive. È un assistente che non dorme mai, non va in ferie e non fa pause caffè.
Certo, non è infallibile: funziona bene solo se nutrito con dati di qualità e integrato ai sistemi giusti.
Ma quando lo è, diventa un compagno di squadra instancabile.
E in un mondo dove il tempo è la risorsa più scarsa, un collega digitale così non è un lusso: è una scelta di buon senso.
P.S. Se ti sei perso le puntate precedenti, puoi leggerle qui: Il blog di Altuofianco sull’Intelligenza artificiale