Il post approfondisce le strategie di ottimizzazione dei contenuti aziendali per l’inclusione nelle risposte generate da chatbot e AI Answer Engine basati su LLM, come ChatGPT e Perplexity. Dopo un confronto tra i motori di ricerca tradizionali e le nuove AI conversazionali, il testo illustra come queste tecnologie combinino conoscenze interne (Internal Knowledge) e ricerche web in tempo reale (RAG). Vengono evidenziati gli obiettivi SEO delle aziende in questo contesto: essere visibili, comprensibili e autorevoli per i LLM. Il documento fornisce indicazioni pratiche per ottimizzare contenuti e dati secondo i principi di LLM SEO, con attenzione a markup semantico, segnali E-E-A-T e coerenza tra contenuti ed entità aziendali. Conclude segnalando le evoluzioni in corso nei chatbot shopping e nei modelli di conversazione transazionale.
I motori di ricerca tradizionali
Caratteristiche principali:
- Focalizzati su parole chiave, con finalità tipicamente di navigazione (trovare un sito), informazione e transazione. Se l’utente ha una domanda complessa, deve tradurla in N domande incentrate ognuna su una parola o espressione chiave.
- Ogni ricerca è a sé stante. Non è possibile concatenare N ricerche seguendo un unico filone tematico.
- In risposta l’utente ottiene tradizionalmente un elenco di link. Il suo compito è consultarli, estrarne le informazioni rilevanti, sintetizzare informazioni provenienti da varie fonti e formulare la propria risposta al quesito. Il confronto diretto con le fonti implica uno sforzo cognitivo, ma tende anche a mantenere vivo lo spirito critico.
AI Answer Machine basati su LLM (Large Language Model)
Chatbot (come ChatGPT) e AI Answer Machine (come Perplexity) propongono all’utente un nuovo approccio alla information discovery:
- Comprendono domande in linguaggio naturale, anche se esprimono intenti informativi o transazionali complessi, come per esempio l’inclusione/esclusione di opzioni, il confronto, la richiesta di spiegazioni, istruzioni, riassunti.
- Forniscono una risposta di sintesi, eventualmente suffragata dalla citazione delle fonti principali.
- Permettono all’utente di proseguire la conversazione, concatenando N domande/risposte seguendo un filone tematico.
Le risposte di chatbot e AI Answer Machine esercitano un forte potere persuasivo sull’utente, dovuto alla presunta neutralità, oggettività e onniscienza dell’agente digitale; alla struttura narrativa della risposta e al fatto di essere “pronta all’uso”, cioè di richiedere uno sforzo critico e sintetico minore, inducendo a una ricezione più passiva delle informazioni.
Va sottolineata la tendenza dei motori di ricerca a inglobare funzioni tipiche delle AI Answering Machine, come fa per esempio Google con la Search Generative Experience (Google SGE), supportando una migliore comprensione del linguaggio naturale e la generazione anche di risposte di sintesi a quesiti complessi.
Quali sono gli obiettivi generali dell’azienda nei confronti di chatbot ed AI Answer Engine?
Rispetto a chatbot ed AI Answer Machine i principali obiettivi dell’azienda sono: fare in modo che l’AI conversazionale includa contenuti aziendali rilevanti ai fini della risposta; che rappresenti tali contenuti in modo preciso, accurato e completo, esprimendo un sentiment positivo o neutro ed eventualmente citando link che permettano all’utente di atterrare su pagine rilevanti dell’ecosistema di presenze online dell’azienda.
Garanzie non ve ne sono, ma per tentare di raggiungere questi obiettivi è necessario che l’azienda prosegua le attività di SEO tradizionale e le integri con attività specifiche di LLM SEO, cioè di ottimizzazione specifica per i modelli linguistici sottostanti a chatbot ed AI Answer Engine.
Va sottolineato che attualmente (maggio 2025) il monitoraggio degli obiettivi va svolto prevalentemente a mano, poiché le piattaforme automatizzate sono ancora in sviluppo.
Quali sono le fonti informative di chatbot ed AI Answer Engine?
A fronte della domanda dell’utente, chatbot ed AI Answer Machine possono consultare due tipi di fonti informative: l’Internal e l’External Knowledge.
L’Internal Knowledge del LLM è il sapere consolidato, frutto di attività di training/re-training/fine tuning e fermo a una determinata data (knowledge cut-off date). Nei dataset di training/re-training/fine tuning i contenuti sono inclusi tendenzialmente in base a principi di prevalenza (numero di occorrenze di un dato, tema, entità in fonti considerate attendibili), coerenza (concordanza tra fonti attendibili su un dato, tema, entità) e qualità (attendibilità del contenuto e dell’entità, cioè dell’autore, dell’editore o dell’organizzazione a cui è associato).
Quando l’utente pone un quesito, l’applicazione cerca anzitutto nel suo Internal Kowledge contenuti rilevanti ai fini della sintetizzazione e generazione della risposta.
In particolare, se la domanda fa riferimento a una data successiva al knowledge cut-off date oppure se la risposta generabile sulla base dei contenuti dell’Internal Knowledge ha un livello di attendibilità stimato come basso dal LLM (es. nel caso di contenuti verticali poco rappresentati nell’Internal Knowledge), l’applicazione attiva la modalità RAG (Retrival Augmented Generation) interrogando il web in tempo reale.
Anzitutto il sistema riformula la domanda dell’utente a misura di motore di ricerca tradizionale e poi lancia l’interrogazione su Google (utilizzato da Google SGE, Gemini AI, ecc.), su Bing (ChatGPT, Copilot e in prevalenza anche Perplexity) e su eventuali altre fonti autorevoli (es. YouTube, Reddit, integrazioni via API per dati necessari in tempo reale, ecc.).
Il sistema riceve in risposta tendenzialmente un insieme di pagine rilevanti, le visita e ne estrae snippet rilevanti.
Il sistema sintetizza i contenuti estratti dall’Internal e/o dall’External Knowledge.
Il sistema genera la risposta e la propone all’utente, eventualmente corredata da link alle primarie fonti sul web.
Nei singoli chatbot/AI Answer Machine la modalità RAG può differire per esempio per condizioni e frequenza di attivazione; per modalità di estrazione degli snippet; per interpretazione del markup secondo schema.org; per peso dato ai segnali E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness; Esperienza, Competenza, Autorevolezza e Affidabilità) e di User Engagement (valutazioni, commenti, menzioni sui social network) emanati dai contenuti; per il peso dato ai contenuti multimediali; per il peso dato alla freschezza dei contenuti; per la diversa prioritizzazione dei contenuti provenienti dall’External Knowledge rispetto a quelli dell’Internal Knowledge, ecc.
L’azienda come può cercare di essere parte della conversazione di chatbot ed AI Answer Engine?
Per essere parte della conversazione fra utente e chatbot/AI Answer Engine, l’azienda deve essere anzitutto presente nell’External e, se possibile, nell’Internal Knowledge su cui si basa il LLM.
Far rientrare contenuti aziendali nei futuri dataset di re-training/fine tuning dei LLM è un obiettivo a medio-lungo termine molto sfidante, poiché i contenuti sono inclusi tendenzialmente in base a principi di prevalenza, coerenza e qualità già citati.
Rientrare dell’External Knowledge che il LLM prende in esame contestualmente all’attivazione della procedura RAG è invece un obiettivo a breve-medio termine, che implica anzitutto essere indicizzati da Bing e Google ed essere ben posizionati rispetto alla parola/espressione chiave intorno a cui ruota il quesito dell’utente.
Poi è necessario che il LLM comprenda al meglio i contenuti aziendali. La marcatura semantica secondo schema.org è decisiva per rendere efficiente ed efficace l’attività interpretativa dei modelli.
È poi opportuno che i modelli linguistici trovino i contenuti aziendali già ottimizzati per rispondere a quesiti e per facilitare l’estrazione degli snippet. Vedremo più avanti alcuni suggerimenti per ottimizzare i contenuti per la LLM SEO (detta anche GEO – Generative Engine Optimization; AAEO – AI Answer Engine Optimization).
Infine, è necessario lavorare a livello di contenuti e di entità (organizzazione, autori) per rafforzare i segnali di E-E-A-T; di coerenza dei contenuti nell’ecosistema di presenze online dell’azienda; di associazione circolare fra contenuti ed entità (Entity Recognition); di reputazione delle entità; di User Engagement, che fanno percepire come “di qualità” i contenuti dell’azienda. Dettaglieremo più avanti i singoli segnali.
La SEO tradizionale come prerequisito per cercare di essere parte della conversazione di chatbot ed AI Answer Engine
Se nella SERP del motore di ricerca interrogato dal chatbot/AI Answer Engine una data pagina non ha un ranking elevato per una data parola/espressione chiave, essa non ha chance di rientrare nel processo di consultazione, snippet extraction, sintetizzazione e generazione della risposta.
L’importanza della SEO tradizionale è palese, anche se in chiave LLM SEO è opportuno tenere in considerazione alcune peculiarità.
Il file robots.txt del sito aziendale va impostato in modo tale da consentire l’accesso ai singoli bot AI.
È necessario essere indicizzati e ben posizionati anche su Bing, usando il Bing Webmaster Tool, caricando la sitemap.xml del sito aziendale, e cercando di rafforzare Social Signal e contenuti multimediali a cui questo motore di ricerca presta particolare attenzione.
Core Vitals e ottimizzazione per il mobile sono rilevanti per Google e, nel caso di e-shop, l’alimentazione del feed del Google Merchant Center può aiutare motore di ricerca e modello linguistico a capire meglio i product data, grazie a dati strutturati e markup semantico.
Il markup relativo ai titoli va usato in modo preciso: un solo H1 per pagina e i successivi H2, H3, ecc. impiegati secondo logica e senza saltare alcun livello. I titoli indicano ai modelli linguistici il topic della pagina, la gerarchia degli argomenti e la relazione fra i contenuti.
Gli elenchi puntati vanno usati per marcare liste di caratteristiche, Unique Selling Proposition (USP), vantaggi, esempi, casi applicativi, ecc., mentre gli elenchi numerati servono per marcare sequenze, raking, passaggi di procedure, ecc.
Nel caso di attività fortemente radicate sul territorio, è necessario impostare al meglio l’account aziendale su Google Business Profile e su Bing Places; connotare localmente i contenuti utilizzando modificatori geografici (cioè descrivendo non solo che cosa di fa, ma anche dove lo si fa); includere nelle presenze online mappe con la/le location posizionate.
Marcare contenuti e product data secondo i vocabolari di schema.org
Anche se i modelli linguistici sono tendenzialmente in grado di comprendere il senso dei contenuti presenti nell’ecosistema online dell’azienda, i dati strutturati aiutano i LLM a ottimizzare le risorse computazionali; a comprendere con precisione senso, contesto e relazioni fra contenuti, nonché fra contenuti ed entità; a supportare il ragionamento e, in definitiva, a sintetizzare e generare risposte più affidabili e rispondenti all’intento informativo o transazionale dell’utente.
I vocabolari di schema.org più rilevanti ai fini aziendali sono quelli relativi a Organization, LocalBusiness, Person, Article, Product (in particolare le proprietà Name, Description, SKU, Gtin, Brand, Image URL, Offers: Price, PriceCurrency, Availability, PriceValidUntil, Seller, Review, AggregateRating: RatingValue + ReviewCount, altre proprietà tipiche del prodotto come es. peso, taglia, colore, materiale, ecc.), BreadCrumbList, FAQPage, HowTo (istruzioni), Review (degli utenti), Event, Dataset, Website.
Ottimizzare i contenuti per la SEO degli LLM di chatbot e AI Answer Engine
Suggerimenti principali:
- Creare o riformulare i contenuti per rispondere anche a intenti informativi e transazionali più complessi, rispondendo implicitamente a domande su chi, che cosa, quando, come, dove, perché, pro e contro, ecc. La riformulazione può avvenire anche con l’aiuto di applicazioni di intelligenza artificiali dedicate al supporto redazionale
- Scrivere Answer Ready e Snippetable Text, cioè testi in cui il LLM trovi già la risposta alla domanda dell’utente e che lo facilitino nell’estrazione degli snippet su cui baserà le successive attività di sintetizzazione e generazione della risposta da sottoporre all’utente. Buona pratica è scrivere, per esempio, coppie di domande e risposte (FAQ); scrivere riassunti di post, white paper o data sheet estesi, intitolandoli Summary, Abstract o Key Takeaway; scrivere glossari di definizioni.
- Scrivere i paragrafi come topic autosufficienti, che conservano il loro senso anche decontestualizzati.
- Aprire il paragrafo con l’informazione chiave, aggiungendo poi contesto e dettagli eventuali.
- Corredare di testo i contenuti multimediali, per esempio Alt Text per le immagini; transcript di audio/video; sottotitoli es. in formato SRT. Benché molti LLM siano multimodali, le note di testo aiutano i modelli a ridurre lo sforzo computazionale.
- Nel caso particolare delle schede prodotto di e-shop, è opportuno non solo scrivere o riformulare le descrizioni in stile conversazionale, inserendo keyword naturali ed elenchi di caratteristiche, Unique Selling Proposition (USP), vantaggi, ma includere e marcare secondo schema.org anche contenuti informativi (es. FAQ tipiche, istruzioni, casi pratici), e incoraggiare gli utenti a valutare e commentare i prodotti, rispondendo con professionalità alle sollecitazioni.
- Per predisporre l’e-shop all’evoluzione dall’AI Answer all’AI Action, cioè alla sua fruizione da parte di agenti digitali, è opportuno etichettare i bottoni con call-to-action (CTA) chiare (es. Inserisci nel carrello; Prenota, ecc.) e, laddove pertinente, marcare il bottone con la proprietà Thing > Property: potentialAction di schema.org.
Come i LLM tendono a formulare giudizi sulla qualità di contenuti ed entità
In fase di estrazione degli snippet, di sintetizzazione delle informazioni recuperate e di selezione dei link da proporre, chatbot ed AI Answer Machine privilegiano contenuti ed entità “di qualità” per cercare soddisfare al meglio l’utente.
Molti gli aspetti che confluiscono nella formulazione del giudizio di qualità da parte dei modelli linguistici.
Segnali E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness)
Anzitutto i LLM captano i segnali E-E-A-T, indice di Experience, Expertise, Authoritativeness, Trustworthiness di un contenuto o di un’entità. Il framework E-E-A-T è stato introdotto nel 2014 da Google per fornire ai suoi quality rater umani criteri oggettivi e condivisi per valutare le risposte del motore di ricerca a domande in ambiti critici (es. sanità, giurisprudenza, finanza, ecc.). Mediante training dataset che incorporano contenuti valutati da persone secondo i criteri E-E-A-T, i modelli linguistici hanno inferito le caratteristiche principali che attribuiamo a Esperienza, Competenza, Autorevolezza e Affidabilità, diventando quindi capaci di captarne i segnali, sia nell’Internal Knowledge, sia nei contenuti esterni recuperati dal web mediante la procedura RAG.
L’Experience (Esperienza) è captata soprattutto mediante segnali linguistici che indicano che l’autore ha esperienza diretta di ciò di cui sta scrivendo: uso della prima persona singolare o plurale; adozione di uno degli schemi tipici dello storytelling; dettagli precisi e unici (rispetto ad altre fonti sullo stesso tema); esempi pratici e/o descrizioni sensoriali; uso naturale di gergo settoriale; integrazione di contenuti multilediali, ecc.
L’Expertise (Competenza) è captata mediante un mix di segnali linguistici, relazionali, di coerenza e di riconoscimento dell’entità associata al contenuto. Profondità e completezza della trattazione (rispetto ad altre fonti sullo stesso tema) e uso preciso del linguaggio settoriale sono segnali linguistici di competenza. Segnali relazionali di expertise sono per esempio le citazioni e i riferimenti a fonti di domain knowledge riconosciute. Segnalano inoltre competenza i contenuti riconducibili ad autori, editori e/o organizzazioni considerati esperti di settore (es. appartenenti a ordini professionali; riviste ed eventi di settore; istituzioni governative o accademiche, ecc.) e che quindi pubblicano con costanza contenuti rilevanti su un determinato argomento.
L’Authoritativeness (Autorevolezza) è un segnale squisitamente relazionale, emanato per esempio da contenuti menzionati o citati da entità autorevoli, fatti oggetto di backlink da siti autorevoli e/o disponibili (anche) su Wikipedia/Wikidata. Volume e persistenza dei riconoscimenti nel corso del tempo fungono da segnali di costanza rafforzativi.
I segnali di Trustworthiness cercano di rispondere al quesito: questa fonte di informazioni è affidabile? Alla formulazione del giudizio di Affidabilità concorrono segnali tecnici (es. l’uso di HTTPS e di altri Security Header); segnali di coerenza (che indicano es. la correttezza di dati di fatto rispetto a fonti autorevoli sul tema); la freschezza dei contenuti, laddove applicabile, con esposizione della data di creazione e modifica; i segnali di Entity Recognition (es. identificabilità dell’autore, presenza delle informazioni di contatto, presenza di Privacy e Cookie Policy); le citazioni e i riferimenti a fonti di domain knowledge riconosciute; segnali di User Engagement.
Compito dell’azienda è quindi gestire i propri contenuti e le proprie entità (organizzazione; persone) in modo tale da rafforzare nel tempo i segnali di Esperienza, Competenza, Autorevolezza e Affidabilità emanati.
L’importanza di coerenza, Entity Recognition e User Engagement
Va sottolineato che sempre più i LLM tendono ad associare contenuti a entità. Anche delle entità, cioè di autori, editori e organizzazioni, i modelli captano i segnali E-E-A-T ed è perciò importante che aziende e professionisti rafforzino le tradizionali attività di Reputation Management. Il rapporto fra contenuto ed entità è circolare: il giudizio del modello linguistico sull’entità è influenzato dal suo giudizio sui contenuti associati all’entità stessa; viceversa, il giudizio sui contenuti è influenzato dal giudizio del modello sull’entità a cui il contenuto è associato.
Oltre a Entity Recognition e User Engagement, è la coerenza dei segnali E-E-A-T emessi da contenuti ed entità a influire sensibilmente sulla formulazione del giudizio da parte dei LLM, poiché funge da corroborante. Ecco perché è importante che l’azienda propaghi dati e informazioni coerenti in tutte le sue presenze online. Questo vale per esempio per i dati di contatto, ma anche per i product data che l’azienda e i suoi rivenditori pubblicano su uno stesso prodotto: tutti gli e-shop riconducibili a una stessa entità (es. quelli dei rivenditori, riconducibili a un dato produttore, importatore o distributore) devono riportare le stesse informazioni per un determinato prodotto, per dare un segnale di coerenza e di qualità ai modelli linguistici e aumentare la possibilità che chatbot/AI Answer Macchine lo includano nelle conversazioni.
Da tenere d’occhio per l’e-shop aziendale (stato: maggio 2025)
ChatGPT Shopping
Quando l’utente scrive una domanda con chiaro intento transazionale, ChatGPT è in grado di visualizzare schedine prodotto su cui l’utente può cliccare per completare l’acquisto sull’e-shop dell’azienda.
Per il momento (maggio 2025; Italia) il risultato è migliore se la domanda è in inglese e se il prodotto è di tipo consumer.
Secondo le dichiarazioni di OpenAI, le schedine prodotto sono risultati organici, cioè non sono a pagamento e non è possibile “inviare” a ChatGPT il proprio catalogo, perché lo prenda in considerazione. Che cosa favorisce dunque l’inclusione di un prodotto nella conversazione del chatbot? Tendenzialmente la presenza di dati strutturati secondo schema.org sulla scheda prodotto dell’e-shop aziendale; le recensioni professionali per esempio su riviste di settore riconosciute; le valutazioni/recensioni degli utenti; i commenti degli utenti su forum, social network, thread di Reddit, ecc.; le indicazioni / il comportamento della persona che pone la domanda (e che es. nella domanda esprime una preferenza per un marchio, ecc.).
Perplexity Pro
Per ora è disponibile solo negli USA una funzione che permette all’azienda di caricare via API il proprio catalogo e quindi vendere mediante lo shopping conversazionale di Perplexity, attivato anch’esso da domande dell’utente con intento transazionale.
L’integrazione avviene mediante la piattaforma Firmly.AI ed è a pagamento.
Non è ancora specificato quando la funzione sarà disponibile in Europa e in Italia.
Lettura consigliata
Per un approccio sistematico al tema della SEO per LLM, chatbot, Generative Engine ed AI Answer Machine, consigliamo il bel libro di Richard Cruze, Mastering LLM SEO and Generative Engine Optimization for the Age of AI Answers: Strategies for Optimizing Your Digital Presence in the Era of AI-Generated Answers, uscito a fine marzo 2025.
È una delle prime trattazioni sull’argomento e quindi è opportuno tenere d’occhio pubblicazioni future e aggiornamenti su questo tema in rapida evoluzione.