Abbiamo parlato del cloaking "standard", ovvero la procedura, usata in passato e oggi piuttosto in disuso e penalizzante, che si basa su questo:
Il cloaking è una tecnica informatica mediante la quale, grazie a particolari script, è possibile mostrare ai motori di ricerca un contenuto differente da quello che realmente il sito internet propone agli utenti
Nel caso di "keyword stuffing" ad esempio, inserire del testo nascosto all'utente (altrimenti sarebbe fastidioso da leggere), del tipo carattere minuscolo oppure testo bianco su sfondo bianco, invisibile. Il motore di ricerca comunque lo legge e può determinare la corrispondenza per parole chiave. Ovviamente era una tecnica vecchia, oggi obsoleta e da evitare, risulta penalizzante.
Il Soft Cloaking è un po' diverso, appunto più "soft" rispetto a veri e propri script di redirect (pratica 100% non etica ed etichettabile come spam), il Soft Cloaking fa uso di meta tags (meta keywords, meta description, ecc, inserire parole chiave all'interno dei meta tag) e del file robots.txt, che fornisce istruzioni ai crawler dei motori di ricerca. La situazione è borderline per questi motivi:
- stiamo presentando informazioni, contenuti diversi fra utenti e motore di ricerca (concettualmente, questo è cloaking); però lo facciamo in modo da NON infastidire l'utente (es. meta tags, visibili solo al motore di ricerca)
- keyword nei meta tag diventano meno rilevanti, semplicemente vengono ignorate (quindi intervento che non ha conseguenze, né in positivo né in negativo)
- l'esperienza dell'utente sempre più importante, secondo le metriche di Google (core web vitals, ecc), quindi se il contenuto "da nascondere" viene effettivamente nascosto all'utente, non crea danni
Vediamo più in dettaglio il Cloaking Inverso, "reverse cloaking": quindi a differenza del "cloaking classico", qui lo scopo è (per le ragioni più disparate) mostrare un contenuto all'utente e nasconderlo al motore di ricerca (es. non vogliamo che venga scansionato/indicizzato). Si può procedere in vari modi, in linea di massima alcuni spunti sono questi:
- vogliamo nascondere al crawler l'intera pagina: mettiamo l'istruzione disallow (eventualmente anche noindex) nel meta tag robots
- vogliamo nascondere al crawler una porzione della pagina: qui le cose sono più sofisticate, ovvero nella pagina HTML che ha una certa struttura, supponiamo di avere un blocco <div> e all'interno metterci del contenuto da "nascondere" secondo il cloaking inverso. Ebbene, il contenuto non dev'essere statico bensì dinamico, generato ad esempio tramite un file JavaScript esterno, che va a riempire il blocco <div>. Questo file JavaScript lo blocchiamo tramite il robots.txt (istruzione disallow), quindi l'utente vede il caricamento della pagina con tutto il contenuto (poco importa se questo è stato generato in modo statico o dinamico), mentre il crawler del motore di ricerca vede la pagina "statica", senza il contenuto generato dinamicamente tramite JavaScript.
Conclusioni: è utile il Soft Cloaking e Cloaking Inverso? Personalmente, salvo esigenze specifiche, occorre valutare con attenzione se e quando allontanarsi da una strategia "onesta", nota come "SEO White Hat". Sarebbe sbagliato negare la fattibilità di alcune tecniche SEO di tipo "Black Hat", ma è importante capire in questo caso se effettivamente c'è una ragione valida per voler mostrare a utente e motore di ricerca un contenuto differente.
Approfondimento:
ohgm.co.uk/esoteric-seo-tips