Ad agosto, Google ha introdotto uno dei suoi aggiornamenti più rilevanti dell’anno.
Molti consulenti SEO hanno interpretato questo aggiornamento come una sorta di rollback parziale dell’Helpful Content Update, che era stato fortemente criticato.
Alcuni hanno visto in questo cambiamento un potenziale mea culpa da parte di Google, una sorta di ammissione che qualcosa non era andato per il verso giusto.
Mentre diversi siti hanno beneficiato delle modifiche, altri hanno subito un netto calo del traffico, evidenziando l’imprevedibilità di tali aggiornamenti.
Case study: impatto dell’aggiornamento sul sito del cliente
In questo case study analizzeremo come l’aggiornamento ha influenzato il sito di un nostro cliente.
Vedremo quali metriche SEO sono state colpite e le strategie SEO che stiamo implementando per recuperare la visibilità perduta e migliorare le prestazioni del portale.
Diagnosi del calo delle visite su Google
Un nostro cliente ci ha recentemente contattato con una domanda simile a quella che riceviamo spesso:
“Non siamo stati colpiti direttamente dall’aggiornamento di agosto, almeno crediamo, ma abbiamo un bug di indicizzazione, verificatosi più o meno nello stesso periodo. Questo ha ridotto notevolmente il traffico che arriva sul nostro sito. Come possiamo risolvere questo problema?”
Il mio primo pensiero è stato: come fai a essere sicuro che si tratti di un problema di indicizzazione, se stai guardando solo i dati sul traffico? Il bug è stato risolto in pochi giorni, quindi perché non c’è stato un recupero immediato del traffico e delle keyword?
La mia risposta è stata chiara: dobbiamo considerare l’ipotesi che l’aggiornamento principale possa aver fatto danni, oltre al bug. I cali delle visite riscontrati durante quei giorni specifici potrebbero essere ignorabili, ma se persistono oltre, allora l’aggiornamento potrebbe essere una delle cause.
Diagnosticare cosa è realmente accaduto non è sempre semplice, e lo vediamo spesso con i nostri clienti. Molte volte, le aziende non sanno da dove cominciare per analizzare la situazione. Altre volte, semplicemente non hanno il tempo o le risorse per investigare in profondità. Questo era il caso di un nostro nuovo cliente, il cui team SEO, pur essendo preparato, necessitava di supporto per analizzare il sito web e identificare eventuali problematiche.
Come abbiamo fatto l’analisi?
Dopo il completamento di un update di Google, è importante analizzare diverse metriche. Come ogni aspetto della SEO, le variabili dipendono da molti fattori, tra cui i KPI (Key Performance Indicators), il tipo di sito che si gestisce e i mercati di riferimento.
Per diagnosticare l’impatto dell’aggiornamento sul sito del nostro cliente, abbiamo utilizzato un approccio in tre fasi:
- Identificare cosa è successo a livello globale sul sito.
- Segmentare i dati per ottenere un’analisi più approfondita.
- Analizzare nel dettaglio le pagine e le sezioni più colpite del sito.
Identificare cosa è successo a livello globale
Il nostro cliente gestisce un sito web di grandi dimensioni. Analizzare ogni singola pagina sarebbe stato estremamente dispendioso in termini di tempo. Pertanto, abbiamo iniziato con una visione d’insieme per identificare tendenze generali e stabilire le priorità di intervento.
Abbiamo analizzato:
- Tendenze di traffico e conversione: per capire se ci fosse un calo significativo che potesse essere collegato all’aggiornamento.
- Stato generale dei contenuti: utilizzando Screaming Frog per individuare eventuali problemi su larga scala.
- Profilo di link: per verificare se ci fossero anomalie nei backlink.
- SEO tecnica: per assicurarci che non ci fossero problemi di indicizzazione o altri errori tecnici che potessero influenzare le prestazioni del sito.
- Segnali basati sugli utenti: per osservare eventuali cambiamenti nel comportamento dei visitatori.
Tendenze di traffico e conversione
Due KPI fondamentali per il nostro cliente erano il traffico e le conversioni. Perciò, la nostra analisi è partita proprio da questi aspetti. Utilizzando dati di Google Analytics 4 (GA4) e Google Search Console (GSC), abbiamo esaminato le tendenze del traffico organico e identificato eventuali anomalie.
Questo approccio olistico ci aiuta a definire una base su cui costruire il resto dell’analisi. Per esempio, se notiamo un calo del traffico globale, è improbabile che il problema sia legato esclusivamente a fattori organici, come la perdita di posizionamento SEO.
Quello che intendo dire è che quando analizziamo il sito, questa visione globale ci permette di capire se il calo del traffico è dovuto a un problema specifico o a qualcosa di più ampio. Se vediamo che c’è un calo generale del traffico, non possiamo subito attribuire questo calo esclusivamente a problemi legati alla SEO (come la perdita di posizionamento nei motori di ricerca).
Potrebbe esserci, per esempio, una combinazione di fattori che contribuiscono al calo: potrebbe essere un problema con il sito stesso o con il comportamento degli utenti.
Sessioni e conversioni: da giugno ad settembre 2024
Abbiamo notato un calo delle sessioni nel periodo che va da luglio a settembre, in particolare a metà agosto, quando è stato rilasciato l’aggiornamento Core di Google. Occorre dire che le conversioni non sono state influenzate in modo significativo, il che suggerisce che l’aggiornamento abbia avuto un impatto principalmente sul traffico organico.
Analisi dettagliata delle sessioni organiche
Approfondendo i dati di GSC e GA4, abbiamo visto una chiara diminuzione del traffico organico. Anche se le conversioni organiche si sono mantenute stabili, il numero totale di utenti che visitava il sito è sceso in modo evidente.
Segmentazione per paese
Prima di concentrarci sul posizionamento delle keyword, abbiamo segmentato i dati per Paese per identificare dove l’impatto fosse più evidente. Questo ci ha spinto a porci una domanda: quanto ci importa di questo mercato?
Ad esempio, uno dei Paesi più colpiti dal calo era la Svezia. Ma, approfondendo i dettagli, abbiamo scoperto che il nostro cliente offre un servizio che funziona esclusivamente su dispositivi iOS. Considerando che in Svezia Android domina il mercato e iOS ha una fetta minore, ci siamo resi conto che non era il Paese su cui concentrare i nostri sforzi. Invece, abbiamo deciso di focalizzarci sull’Italia, il mercato di riferimento per il cliente.
Stato generale dei contenuti
Il secondo segnale che abbiamo analizzato è stato lo stato generale dei contenuti del sito. Questo ci ha permesso di identificare potenziali problemi di contenuto su larga scala.
Abbiamo utilizzato l’analisi dei contenuti di Screaming Frog, uno strumento che ci ha fornito una panoramica dettagliata dei contenuti, individuando eventuali pagine deboli o non ottimizzate.
L’importanza di concentrarsi sui dati giusti
Quando si utilizza uno strumento per fare una SEO Audit, occorre identificare quali dati contano davvero tra la grande mole di informazioni che ci vengono presentate.
A volte, è facile farsi distrarre da metriche meno rilevanti.
Ad esempio, si potrebbe essere tentati di focalizzarsi sulla leggibilità delle pagine.
Anche se è vero che alcune pagine potrebbero avere problemi sotto questo aspetto, è possibile che tali problemi siano comunque accettabili per il pubblico di riferimento. In alcuni casi, come quello di un sito tecnico, un linguaggio complesso potrebbe essere esattamente ciò che il pubblico si aspetta.
Il vero problema in questo caso non era la leggibilità, ma la presenza di un numero significativo di pagine quasi duplicate.
Molte di queste pagine si trovavano nella directory dei template, e questa informazione ci ha aiutato a segmentare i dati in base alla struttura del sito, facilitando l’analisi.
Differenza tra contenuti duplicati e contenuti utili
È importante distinguere tra la presenza di contenuti duplicati e quello che Google definisce come contenuto utile.
Esistono metodi per valutare l’utilità dei contenuti su larga scala, ad esempio utilizzando l’API NLP (Natural Language Processing) di Google per estrarre le entità SEO e analizzare il sentiment. Questa è una tecnica che stiamo sviluppando e che potrebbe aiutare in futuro.
Profilo dei link interni
Un altro aspetto riguarda i collegamenti interni.
Il nostro cliente aveva già indicato che voleva migliorare la struttura dei link interni nella Fase 2 del progetto.
Per il momento, abbiamo iniziato con una panoramica della situazione utilizzando Screaming Frog.
Dall’analisi generale, i link sembravano in buono stato. Abbiamo trovato alcuni aspetti da migliorare. Un esempio interessante riguarda la presenza di outlink interni senza testo di ancoraggio, un problema che risaliva a un particolare modello di pagina.
Anche se non rappresentava una priorità assoluta, era una correzione facile da implementare a livello di template, migliorando così l’accessibilità e la struttura del sito.
SEO tecnica: non tutti i problemi influiscono sul posizionamento
Non tutti i problemi tecnici individuati influenzano necessariamente il posizionamento, anche se possono sembrare significativi.
Durante l’analisi, abbiamo iniziato a sospettare che il vero problema fosse legato ai contenuti e ai cambiamenti nelle SERP (Search Engine Results Pages).
Negli ultimi tempi, molti siti web hanno avuto difficoltà dopo gli aggiornamenti di Google, e abbiamo notato che piattaforme come Reddit e le AI Overviews stanno acquisendo sempre più visibilità nei risultati di ricerca.
Un esempio: le AI Overviews funzionano in modo simile ai featured snippet. Questo ci ha fatto pensare che potremmo dover concentrarci maggiormente sui dati strutturati per migliorare la presenza del sito nei risultati di ricerca.
L’analisi tecnica condotta con Screaming Frog ci ha aiutato a identificare eventuali dati strutturati mancanti e altre lacune evidenti.
L’importanza di concentrarsi su contenuti pertinenti
Dal punto di vista della SEO semantica, i siti web devono avere una forte coerenza tra i loro contenuti e il pubblico di riferimento. La preoccupazione del cliente riguardo alla sua espansione verso nuovi mercati è comprensibile, poiché Google potrebbe interpretare un cambiamento del target come una perdita di focus del sito.
Per verificare se il cliente avesse effettivamente incontrato difficoltà a causa di questa espansione, abbiamo utilizzato una combinazione di strumenti:
- Semrush per esportare le parole chiave e le pagine classificate in Italia.
- Uno script Python per analizzare le pagine utilizzando l’elaborazione del linguaggio naturale e assegnare una “persona” a ciascuna pagina.
I risultati dell’analisi hanno rivelato qualcosa di interessante: molte pagine del sito erano adatte a entrambi i gruppi di utenti (le “buyers personas“). Questo significa che il contenuto era ancora rilevante per tutto il pubblico di riferimento. In altre parole, il sito non aveva perso il focus sui suoi temi principali.
Grazie a questi dati, abbiamo capito che il calo del traffico non era dovuto a una mancanza di coerenza nei contenuti, ma probabilmente a fattori esterni o tecnici.
Segmentare i dati per un’analisi approfondita
A questo punto, tutto indicava che il sito fosse ancora solido nel complesso. Alcune sezioni specifiche, come la directory dei template, presentavano delle sfide. Poiché la maggior parte del traffico proveniva dalla sezione blog, bisognava capire da dove iniziare l’analisi più dettagliata.
Utilizzando esportazioni da varie fonti, come GA4, GSC e il report SemRush pagine, abbiamo mappato i dati per esaminare l’impatto su base parola chiave. Questo processo ha richiesto una manipolazione avanzata dei dati, utilizzando funzioni come le tabelle pivot.
Abbiamo etichettato le pagine in base alla percentuale di calo del traffico e delle conversioni dopo l’aggiornamento di Google, assegnando priorità alta, media o bassa a ciascuna pagina. Così facendo, abbiamo ottenuto una lista iniziale di 51 pagine da analizzare più nel dettaglio.
Abbiamo preso in considerazione anche la data di pubblicazione delle pagine. Gli articoli più recenti, ad esempio, potrebbero non aver accumulato sufficiente autorità, mentre i post più vecchi potrebbero necessitare di un aggiornamento per rimanere rilevanti. Per estrarre queste informazioni, abbiamo impostato un’estrazione personalizzata tramite Screaming Frog, ottenendo così una visione completa delle date di pubblicazione e delle pagine da migliorare.
Approfondimento sulle pagine e sezioni più colpite del sito web
In questa fase dell’analisi, siamo passati al lavoro manuale.
Abbiamo esaminato le pagine più colpite per capire se ci fossero schemi ricorrenti, e purtroppo, i nostri sospetti sono stati confermati: il calo del traffico era dovuto a modifiche nelle SERP (i risultati di ricerca) in Italia e nel Regno Unito, causate dall’ascesa di Reddit e di altri forum vari.
Reddit ha ottenuto un grande vantaggio dopo l’aggiornamento di Google, posizionandosi per molte delle parole chiave rilevanti per il nostro cliente.
Un’area sottovalutata
Abbiamo poi analizzato una sezione di FAQ del sito, che, pur non generando molto traffico o conversioni, era significativa per due motivi:
- Il cliente aveva investito molto tempo nella creazione di contenuti dettagliati.
- L’analisi preliminare aveva evidenziato problemi nella struttura delle domande e delle risposte.
Esaminando alcune di queste pagine, abbiamo notato uno schema ricorrente: le FAQ non rispondevano efficacemente all’intento di ricerca degli utenti. Questo significava che chi visitava queste pagine cercava risposte concise e specifiche, ma ciò che trovava erano informazioni troppo generiche o non rilevanti per le loro necessità.
L’importanza dell’intento di ricerca
Quando gli utenti cercano risposte a domande specifiche tramite le FAQ (ad esempio, “Come funziona la spedizione internazionale?”), si aspettano di trovare risposte rapide e dirette. Vogliono soluzioni chiare e dettagli immediati senza dover cercare troppo.
Google sa che gli utenti preferiscono risposte concise e pertinenti, e quindi premia i siti che organizzano le FAQ in modo che rispondano immediatamente a queste esigenze.
Nel caso del nostro cliente, però, le pagine delle FAQ erano ottimizzate con risposte troppo generiche e poco mirate. Le risposte non rispondevano direttamente alle domande più frequenti degli utenti, lasciandoli insoddisfatti. Questo ha penalizzato il sito, perché non riusciva a soddisfare l’intento di ricerca degli utenti che cercavano risposte specifiche e facili da trovare.
Risolvere problemi complessi con un approccio strategico
Dopo aver analizzato la situazione, era chiaro che non esisteva una soluzione rapida.
I problemi identificati richiedevano una strategia più ampia e strutturata.
Abbiamo quindi raccomandato:
- Vittorie rapide e test: prima di affrontare i problemi più complessi, abbiamo suggerito di iniziare con alcune soluzioni rapide, come la revisione dei contenuti per allinearli meglio alle linee guida EEAT (Expertise, Authoritativeness, Trustworthiness).
- Ottimizzazione delle FAQ: le FAQ di tutte le pagine avevano bisogno di essere ripensate. Abbiamo suggerito di rivedere la strategia delle parole chiave per allinearla meglio all’intento degli utenti e di migliorare il contenuto delle pagine per fornire una maggiore varietà di opzioni. Questo avrebbe reso le pagine più competitive nei risultati di ricerca.
- Miglioramenti tecnici: uno degli interventi rapidi identificati riguardava i dati strutturati. È importante implementare questi dati solo dove sono veramente utili. Ad esempio, se il cliente ha recensioni eccellenti, implementare il Review Schema potrebbe migliorare la visibilità del sito.
Sviluppare una strategia SEO giusta
Il cliente ha bisogno di rivalutare la propria strategia SEO, tenendo conto dei cambiamenti in atto.
Una delle opzioni che abbiamo suggerito è quella di incorporare più contenuti generati dagli utenti (UGC). Reddit prospera su questi contenuti, e sembra che Google li stia premiando. Per competere con Reddit, non basta puntare solo sugli UGC: devono essere parte di una strategia più ampia.
Un’altra idea è quella di diversificare la strategia delle parole chiave, cercando di posizionarsi per termini meno competitivi, dove Reddit e i contenuti generati dall’intelligenza artificiale non dominano.
L’impatto dell’intelligenza artificiale sulla SEO
L’AIO (AI Overviews) non è una parola sarda e non scomparirà presto, anzi, è probabile che diventerà sempre più importante. La vera sfida sarà capire se questo cambiamento sia positivo o negativo per le aziende. Con l’intelligenza artificiale che diventa sempre più importante nelle prime fasi di ricerca degli utenti, le aziende dovranno cambiare il modo in cui creano i contenuti.
Molti utenti arriveranno sul sito solo durante la fase decisionale, dopo aver ottenuto informazioni generali dalle AI o da chatbot come ChatGPT. Questo cambierà il modo in cui pensiamo alla strategia SEO: l’accento sarà posto non solo sulle parole chiave commerciali, ma anche sulla creazione di un brand e sulla produzione di contenuti diversificati, come i video, per apparire nelle SERP video e su YouTube.
Conclusione: l’importanza della resilienza del brand
In questo nuovo scenario, la resilienza del brand diventa una cosa super importante.
Con i cambiamenti nella privacy dei dati e l’evoluzione delle SERP, non possiamo più tracciare ogni clic. È importante che il nostro cliente inizi a concentrarsi su micro conversioni, come le iscrizioni alla newsletter e il coinvolgimento degli utenti, per colmare il divario.
In definitiva, man mano che la ricerca si evolve, anche i KPI SEO devono adattarsi. Concentrarsi solo su traffico e conversioni non è più sufficiente: è necessario sviluppare una strategia più ampia e diversificata.