Ehi, oggi parliamo un attimo di quei problemi fastidiosi che si verificano quando Google indicizza URL che, diciamocelo, non ti servono proprio.
Qui sotto ti racconto un caso pratico e ti spiego come John Mueller di Google ha suggerito di affrontare il problema degli URL duplicati con parametri di query.
Il caso pratico: audit e URL “indesiderati”
Un consulente SEO – un collega – ha pubblicato i dettagli di un audit SEO su un sito e si è proprio lamentato dell’uso del rel=canonical per gestire l’indicizzazione.
In pratica, il suo ragionamento era: “Perché non usare il noindex per dire a Google di scartare certe pagine e, dopo di che, bloccarle tramite robots.txt?”
John Mueller ha visto per caso questa discussione ed cha proposto un approccio ben diverso.
Cosa è successo?
Durante il controllo, è emerso che oltre la metà delle circa 1.430 pagine indicizzate erano URL generati dinamicamente, tipicamente quelle “paginate” o con funzioni tipo “aggiungi al carrello” – quelle URL che finiscono con un punto interrogativo, capisci?
Anche se il SEO aveva implementato il link canonical per indicare a Google quale URL considerare come principale, il motore di ricerca ha deciso di ignorare questo suggerimento, dimostrando che il rel=canonical è proprio un consiglio e non una regola ferrea.
Ad esempio, un URL per aggiungere al carrello appariva così:
example.com/product/page-5/?add-to-cart=example
La strategia del SEO era questa:
“Il modo in cui ho intenzione di risolvere questo problema è di non indicizzare tutte queste pagine e, una volta fatto, bloccarle nel file robots.txt”
Vabbè, lo capiamo: bloccare è sempre una soluzione che, a prima vista, ti fa pensare di aver messo ordine il sito web.
Le decisioni SEO: tutto sta nei dettagli
Uno dei cliché SEO, ma anche una verità scomoda, è che spesso “dipende”. E non sto parlando in maniera vaga: John Mueller ha approfondito questo punto in una discussione su LinkedIn – una discussione che ha già incassato 85 risposte – e ha sottolineato l’importanza dei dettagli.
Quando parliamo di indicizzazione, c’è da capire che:
- Una direttiva è un comando che Google DEVE seguire (tipo il meta noindex).
- Il link rel=canonical, invece, è un semplice suggerimento, non un ordine inconfutabile.
Il problema di questo sito era proprio quello di una massa di post generati dinamicamente che finivano per inondare l’indice di Google, senza che il canonical riuscisse a fare il suo lavoro.
John Mueller ha dato delle dritte per gestire gli URL indesiderati
John Mueller ha consigliato di smettere di trattare le URL come un semplice elenco da bloccare e di analizzarli per individuare schemi specifici.
In altre parole, niente soluzioni “taglia unica” – ogni sito ha le sue particolarità.
Ecco cosa ha detto lui:
“Sembra che tu abbia già ricevuto molti commenti qui, quindi il mio contributo è più quello di un passante casuale…
Esaminerei gli URL per individuare pattern e guardare i dettagli, piuttosto che trattarli come un elenco casuale di URL che vuoi rendere canonici. Questi non sono casuali, usare una soluzione generica non sarà ottimale per nessun sito: idealmente, faresti qualcosa di specifico per questa particolare situazione. Alias “dipende”.
In particolare, sembra che tu abbia molti URL “aggiungi al carrello” – puoi semplicemente bloccarli con il pattern URL tramite robots.txt. Non devi renderli canonici, idealmente non dovrebbero essere scansionati durante una scansione normale (anche questo manda in tilt le tue metriche).
C’è anche una certa quantità di impaginazione e filtraggio nei parametri URL: consulta la nostra documentazione sulle opzioni a riguardo.
Per ulteriori informazioni tecniche, consulta https://search-off-the-record.libsyn.com/handling-dupes-same-same-or-different“.
Quindi, qual è la soluzione di Mueller?
In parole povere, Mueller ci dice di non andare a bloccare a tappeto tutti gli URL indesiderati, ma di analizzarli bene per capire se c’è un motivo comune che li rende “problematici”.
Vediamo come fare.
1. Osserva gli URL e cerca dei pattern
Non basta dire “questi URL non mi piacciono, via robots.txt per tutti”.
Quello che devi fare è guardare gli URL in questione e cercare se ci sono delle parti che si ripetono.
Ad esempio, se vedi che tanti URL contengono la parola “aggiungi al carrello” (tipo: example.com/prodotto/page-5/?add-to-cart=example
), allora probabilmente sono generati automaticamente per quella funzione.
Cosa fare? Blocca proprio quel gruppo di URL usando il file robots.txt, definendo una regola che li riconosca.
Ad esempio così:
User-agent: *
Disallow: /*?add-to-cart=
2. Capisci che il tag canonico è solo un suggerimento
Il rel=canonical è uno strumento che dice a Google:
“Guarda, questa è la versione principale di questa pagina”, ma non obbliga il motore di ricerca a seguirlo.
Quindi, se stai cercando di far sparire gli URL indesiderati, non affidarti esclusivamente a questo tag, perché Google potrebbe comunque decidere di indicizzarli.
3. Agisci in modo specifico per ogni situazione
Non esiste una soluzione “taglia unica” per tutti i siti.
Ogni sito ha le sue peculiarità. Quindi, dopo aver identificato i pattern degli URL indesiderati, applica una soluzione mirata:
- Se molti URL contengono “aggiungi al carrello”: blocca quei pattern con robots.txt.
- Se ci sono problemi di paginazione o filtri: consulta la documentazione di Google per capire come gestire quei parametri in modo appropriato.
Ma perché, diavolo, Google indicizza gli URL con parametri di query?
Un altro punto caldo emerso nella discussione su LinkedIn riguarda proprio il caso degli URL del carrello degli acquisti che, a quanto pare, Google non riesce a ignorare.
Non c’è una risposta univoca, ma probabilmente dipende da particolarità della piattaforma del carrello, e la soluzione migliore rimane quella di bloccare quegli URL specifici con il robots.txt, proprio come suggerito sopra.
Conclusioni
Insomma, se il tuo sito è invaso da URL indicizzati che non servono, il consiglio di John Mueller è di andare a fondo: analizza i pattern, capisci bene cosa sta succedendo e adotta una strategia mirata.
Niente soluzioni generiche, perché ogni situazione è diversa (e sì, a volte ci vuole un po’ di quella “magia umana” con imperfezioni qua e là per far funzionare tutto come si deve).
Spero che questo percorso ti abbia fatto capire meglio come affrontare il problema.
Ricorda: nella SEO non esistono ricette infallibili, ma solo strategie da adattare in base ai dettagli specifici del tuo sito.
Buona ottimizzazione – e, occhio, non dimenticare di aggiungere anche quel tocco umano!