La SEO è in continua evoluzione, ovviamente, vista l'evoluzione di tutto il mondo internet, rincorsa dall'algoritmo di Google (e degli altri motori di ricerca) che devono stare al passo coi tempi, per mostrare i risultati di ricerca migliori, pertinenti e di qualità, l'esperienza utente migliore possibile ecc.

Leggevo un articolo di Studiosamo, rinomata webagency, parla di quelal che sarà la "SEO di domani". Giustamente viene evidenziato che l'intento di ricerca è l'obiettivo da seguire, che cavolo, alla fine il nostro sito web viene visto e valorizzato dagli utenti, mica dai bot del motore di ricerca! Quindi pensiamo all'utente, non a "stratagemmi" per portare in prima pagina o in prima posizione assoluta un contenuto che all'utente non crea alcun valore (ammesso che ci si riesca, poi cosa ci guadagniamo? Nulla). Per seguire questo obiettivo, resta valido il noto concetto di E-A-T (Expertise, Authoritativeness, Trustworthiness) e restare sempre aggiornati, al passo coi tempi (basta pensare ad esempio anche ai Core Web Vitals).

C'è poi un altro "tema scottante", ovvero quello dell'Automazione, Intelligenza Artificiale. Ebbene, qui nascono alcuni problemi; vorrei fare una precisazione:

  • automazione tramite tool di analisi: va bene, praticamente ciò che abbiamo sempre fatto (basta lavorare con Excel per capirlo); il professionista usa uno strumento che lo aiuta nel velocizzare alcune operazioni, poi valuta i dati con la propria esperienza e spirito critico, per avere sempre un controllo sul risultato
  • automazione di contenuti: ecco, quello che bisogna evitare come la peste, non a caso ho proprio scritto nel titolo <<"Less Automation": salviamo la SEO di domani!>>. Purtoppo "fa comodo" usare tool di scrittura automatica, certo risparmiamo il tempo del professionista che lavora alla scrittura dell'articolo, in questo modo si va a creare un "articolo spazzatura" o qualcosa di simile, senza la certezza che le informazioni scritte siano corrette, ammesso anche che il tool non faccia errori di lessico, grammatica ecc; il risultato può essere un articolo molto basilare, senza sfumature, sottigliezze di vario genere, questo è chiaro, stiamo facendo scrivere il contenuto ad un software, affidandoci al 100% a questo!! Una semplice malinterpretazione può portare a risultati indecenti (lista di errori memorabili), a parte poi i casi di "vandalismo" in cui l'algoritmo è stato appositamente manomesso per diffondere messaggi razzisti ecc. Quindi, anche nella migliore delle ipotesi, l'automazione porta ad un incremento della qualità, a discapito della qualità. Questa è purtroppo la direzione che internet sta prendendo, in diversi ambienti (non su Ethical Hacking Forum!!😀) come è evidente. Occorre invece inseguire la strada della qualità, creare contenuti di valore, ricordiamo i concetti detti all'inizio di "qualità dei risultati" e di "esperienza utente".

Argomenti correlati:
La "SEO" che piace a Google
SEO Low Cost
User Generated Content

6 mesi dopo

Un aggiornamento importante: come riporta SearchEngineJournal:

Google is upgrading the concept of E-A-T with an additional ‘E’ for experience.
The new E-E-A-T acronym stands for Experience, Expertise, Authoritativeness, and Trustworthiness.

In particolare, la dichiarazione ufficiale di Google:

“Consider the extent to which the content creator has the necessary first-hand or life experience for the topic. Many types of pages are trustworthy and achieve their purpose well when created by people with a wealth of personal experience. For example, which would you trust: a product review from someone who has personally used the product or a “review” by someone who has not?”

Per capirci, l'esempio si rifà a quei siti web (come anche Amazon) che consentono solamente recensioni verificate ovvero tramite l'account che ha già acquistato quel prodotto. Anche Google sta andando in quella direzione.
C'è da aspettarsi quindi che la condivisione di "esperienze dirette" (foto reali e autentiche, relativa descrizione di un caso di studio reale, ecc) riceva un vantaggio in termini di ranking. Direi che è anche comprensibile e corretto, piuttosto che dare peso a cose del tipo il classico articolo di confronto fra due brand, descrizioni generiche, il vincitore risulta (stranamente 😅) il brand venduto da chi ha scritto l'articolo con tanto di link che rimanda alle "super offerte esclusive" di quel prodotto.

Quindi, anche per aggiornare Lo stato della SEO nel 2022:

  • Less Automation: prestiamo sempre attenzione evitando l'uso (indiscriminato) dell'IA, che accelera molto le operazioni ma generando contenuti di qualità pessima, senza alcun controllo o senso critico; da valutare molto attentamente anche se convenga usare un algoritmo di IA come "spunto iniziale" e poi riprenderlo in mano aggiustando e correggendo i vari pezzi, oppure se abbia più senso usare direttamente la propria testa e il proprio lavoro, fin da subito
  • EEAT: viene aggiunto anche il termine "esperienza" all'algoritmo di valutazione, per dare maggior garanzia di credibilità ad un articolo, recensione, descrizione di un prodotto ecc
6 mesi dopo

Aggiornamento (che NON volevamo 😅): da wired.it abbiamo questa novità:

L'AI di Wordpress che scrive i post sul blog al posto tuo

La piattaforma annuncia Jetpack AI, in grado di scrivere contenuti, correggere errori grammaticali e altro ancora

Bene, facciamo il punto della situazione. Avevamo parlato proprio di Less Automation, tutte queste risorse possono essere utili per automatizzare a basso livello (creare uno schema, template, correggere eventuali errori di ortografia) ma NON creare un contenuto vero e proprio quindi "scrivere i post sul Blog al posto tuo" proprio non va bene!
L'IA generativa del plugin Jetpack funziona in modo analogo ad altri strumenti come Microsoft 365 Copilot; è prevista una prova gratuita e poi abbonamento a 10$ mensili.

Speriamo dunque che questo nuovo strumento venga usato con la testa evitando di produrre nuova "spazzatura" su larga scala, che già internet ne è pieno.

Powered by: FreeFlarum.
(remove this footer)