- Modificato
La SEO è in continua evoluzione, ovviamente, vista l'evoluzione di tutto il mondo internet, rincorsa dall'algoritmo di Google (e degli altri motori di ricerca) che devono stare al passo coi tempi, per mostrare i risultati di ricerca migliori, pertinenti e di qualità, l'esperienza utente migliore possibile ecc.
Leggevo un articolo di Studiosamo, rinomata webagency, parla di quelal che sarà la "SEO di domani". Giustamente viene evidenziato che l'intento di ricerca è l'obiettivo da seguire, che cavolo, alla fine il nostro sito web viene visto e valorizzato dagli utenti, mica dai bot del motore di ricerca! Quindi pensiamo all'utente, non a "stratagemmi" per portare in prima pagina o in prima posizione assoluta un contenuto che all'utente non crea alcun valore (ammesso che ci si riesca, poi cosa ci guadagniamo? Nulla). Per seguire questo obiettivo, resta valido il noto concetto di E-A-T (Expertise, Authoritativeness, Trustworthiness) e restare sempre aggiornati, al passo coi tempi (basta pensare ad esempio anche ai Core Web Vitals).
C'è poi un altro "tema scottante", ovvero quello dell'Automazione, Intelligenza Artificiale. Ebbene, qui nascono alcuni problemi; vorrei fare una precisazione:
- automazione tramite tool di analisi: va bene, praticamente ciò che abbiamo sempre fatto (basta lavorare con Excel per capirlo); il professionista usa uno strumento che lo aiuta nel velocizzare alcune operazioni, poi valuta i dati con la propria esperienza e spirito critico, per avere sempre un controllo sul risultato
- automazione di contenuti: ecco, quello che bisogna evitare come la peste, non a caso ho proprio scritto nel titolo <<"Less Automation": salviamo la SEO di domani!>>. Purtoppo "fa comodo" usare tool di scrittura automatica, certo risparmiamo il tempo del professionista che lavora alla scrittura dell'articolo, in questo modo si va a creare un "articolo spazzatura" o qualcosa di simile, senza la certezza che le informazioni scritte siano corrette, ammesso anche che il tool non faccia errori di lessico, grammatica ecc; il risultato può essere un articolo molto basilare, senza sfumature, sottigliezze di vario genere, questo è chiaro, stiamo facendo scrivere il contenuto ad un software, affidandoci al 100% a questo!! Una semplice malinterpretazione può portare a risultati indecenti (lista di errori memorabili), a parte poi i casi di "vandalismo" in cui l'algoritmo è stato appositamente manomesso per diffondere messaggi razzisti ecc. Quindi, anche nella migliore delle ipotesi, l'automazione porta ad un incremento della qualità, a discapito della qualità. Questa è purtroppo la direzione che internet sta prendendo, in diversi ambienti (non su Ethical Hacking Forum!!😀) come è evidente. Occorre invece inseguire la strada della qualità, creare contenuti di valore, ricordiamo i concetti detti all'inizio di "qualità dei risultati" e di "esperienza utente".
Argomenti correlati:
La "SEO" che piace a Google
SEO Low Cost
User Generated Content