console war cover

Cosa ci sta insegnando l’ultima console war (che non c’entra con i videogiochi)

La console war fra PlayStation 5 e Xbox Series X|S ci sta insegnando almeno due cose che non hanno strettamente a che vedere con il mondo dei videogiochi. Eccole qui.

Le console war sono vecchie quanto i videogiochi stessi, o quasi (non è che l’Atari 2600 avesse tutti questi concorrenti all’inizio, ma già con gli otto bit le cose erano cambiate). E ormai fanno parte del Folklore del mondo dei videogame. La più recente, quella fra PlayStation 5 e l’accoppiata Xbox Series X / Xbox Series S non è nella sostanza molto diversa dalle precedenti.

Si parla sempre di grafica, di processore, di prestazioni, ma soprattutto di titoli ed esclusive. Ma questa è la parte più noiosa, di cui francamente non ho molta voglia di parlare: ho dato, con il mondo dei videogame, svariati anni fa, anche professionalmente. E come si suol dire è stato bello finché è durato. Tutta via la console war del 2020 porta con sé due lezioni molto interessanti. Una delle due ha a che vedere con la SEO e la vedremo per seconda. L’altra riguarda il mercato più in generale.

La Console War 2020 ci insegna che a volte i veri vincitori non salgono sul podio

Fra appassionati ci si sta scapicollando per capire chi sarà il vincitore, in termini di vendite, quote di mercato, hype. Ma diamo un’occhiata a questi grafici:

Immagini realizzate da newatlas.com/games/playstation-5-ps5-digital-edition-vs-xbox-series-x-s-specs-comparison/
Immagini realizzate da newatlas.com/games/playstation-5-ps5-digital-edition-vs-xbox-series-x-s-specs-comparison/

Nessuno nota nulla?

Esatto AMD realizza tutti i processori e tutte le CPU di tutte le console di prossima generazione.

Quindi, possiamo dire che AMD è la vincitrice assoluta: per l’azienda, che si vendano più Xbox o più PlayStation è assolutamente indifferente. Qualcuno diceva che durante la corsa all’oro, si arricchisce davvero chi vende setacci e picconi. Calza a pennello anche a questa console war.

E cosa ci insegna la console war 2020 sulla SEO?

Ovviamente, il lancio delle sue console, PlayStation 5 in particolare, ha suscitato molto interesse. Il che ha condotto a una rincorsa alla novità.
Tutto perfettamente normale fino a quando si rimane all’interno dell’ecosistema dei siti di videogiochi e tecnologia.

Ma guardate questi due:

E si tratta solo di due casi su molti: siti verticali di altri settori che, per ragioni insondabili a chiunque faccia questo mestiere con buon senso, decidono di rastrellare qualsiasi keyword che si crede possa portare traffico.

I risultati? Ecco qui:

Il risultato è ovvio a chiunque conosca davvero la SEO. Come sappiamo, il posizionamento dipende da moltissimi fattori. Fra cui anche l’autorevolezza del dominio nello specifico settore.

Mentre alcuni sono convinti che “basti scrivere su cose che interessano per fare traffico”. Il che può anche capitare, per brevi periodi di tempo. Ma il piccolo risultato ottenuto svanisce come neve al sole appena l’algoritmo di Google effettua un controllo più approfondito.

Se aggiungiamo che spesso questi articoli vengono relegati in categorie non visibili dalla navigazione, per non intaccare l’immagine del sito, abbiamo il quadro dell’ennesima tecnica obsoleta per ottenere traffico.

Perché parlare di tutto non funziona?

Per la verità funziona, se gestiamo un sito informativo generalista. Ma se siamo specializzati, non ha alcun senso. Lasciamo per un attimo da parte gli aspetti tecnici, e proviamo a immedesimarci nell’utente.

Crediamo davvero che un utente possa pensare
Hei, guarda quanto parla bene di meccanica quantistica questo sito sul collezionismo di collari per cani! Sicuramente sono altrettanto bravi a parlare di collari per cani! Aspetta che visito quaranta pagine”

Invece di
Cosa diavolo ci fa un articolo sulla meccanica quantistica in questo sito sul collezionismo di collari per cani? Si sono sbagliati o mi prendono in giro?”

Dal punto di vista più tecnico invece sappiamo che l’algoritmo di Google parte da una valutazione paritaria, in prima istanza, per poi affinarla con parametri come la pertinenza con gli argomenti abitualmente trattari e l’autorevolezza in quel campo.

Quello che trae in inganno chi analizza i risultati superficialmente è che in effetti è possibile che ci sia un periodo di interregno in cui la pagina si posiziona, temporaneamente, anche per un settore non coperto abitualmente. E magari generi traffico per qualche giorno.

Questo conduce a un circolo vizioso aberrante: a un certo punto l’articolo perde le posizioni e smette di fare traffico. Ma l’ultima volta che abbiamo parlato di un argomento che tira abbiamo fatto traffico, giusto? Quindi facciamo più contenuti su argomenti che tirano, non importa quali.
Centinaia di migliaia di parole macinate per essere visibili per pochi giorni.

Quando, con una linea editoriale precisa e una identità definita si possono ottenere risultati che durano nel tempo.

Questo blog, dalla sua posizione infinitesimale nel Web, conserva intatte le sue posizioni da anni. E ne conquista di nuove. Lentamente, ma con un contenuto al mese quando va bene.

La stessa cosa, su scala più grande, accade su diversi siti con cui collaboro.

Si ottengono risultati migliori con pochi contenuti ragionati che non con migliaia di contenuti privi di pianificazione e direzione.

Insomma, la console war 2020 contiene un insegnamento anche per la SEO ci sono ancora moltissime persone che la fanno nel modo sbagliato.

Bonus per addetti ai lavori: ha senso tentare di posizionarsi per le keyword branded, in particolare quelle forti?

Secondo me assolutamente no. Tanto, nel 99,9% dei casi il primo risultato della SERP ormai è la pagina ufficiale del prodotto. Che è esattamente quello che l’utente cerca con la keyword secca.

Ma parliamone qui sotto, se vi fa piacere.

[immagine di copertina: Fabian Albert on Unsplash (elaborata) ]

tecniche SEO Obsolete

12 tecniche SEO obsolete, e come evitarle

La SEO è una disciplina in costante evoluzione. Vediamo 12 tecniche SEO obsolete che dovremmo evitare nel 2020.

Chiunque faccia questo mestiere da un po’ di tempo e con un approccio sistematico sa che la SEO è, fin dalle sue origini, una disciplina piuttosto confusa. Sia per la sua natura empirica, sia per la volontà di una certa categoria di esperti di costruire una sorta di aura intorno a una serie di concetti che, per la verità, sono piuttosto semplici.

Questo origina il fiorire di svariate tecniche SEO, che spesso non sono altro che la riduzione a regole di qualche moda del momento. Qualche tempo fa, un interessante articolo di Link Assistant ne ha riportate dodici. Come sempre, mi sono prodigato per tradurlo e localizzarlo, anche per semplificarlo e renderlo meno legato ai prodotti dell’azienda (alcuni dei quali sono notevoli, peraltro).

Ecco quindi una lista ragionata e rivista delle dodici tecniche SEO che dobbiamo evitare nel 2020 (alcune delle quali, onestamente, dovrebbero già essere evitate come la peste già da molti anni).

Le tecniche SEO obsolete da evitare

Le pagine ottimizzate per una sola keyword

Back in the days, l’algoritmo di Google non era eccezionale e come sappiamo produceva SERP diverse anche per ricerche molto simili. E ovviamente tuttisi buttarono a fare pagine ultraspecifiche per soddisfare ogni singola intenzione di ricerca. L’esempio dell’articolo originale lo spiega benissimo: chi produceva portatili per l’ufficio, avrebbe dovuto creare singole pagine per le keyword portatili per l’ufficio, portatili professionali, computer portatili per lavoro e così via.

Perché non funziona?

Principalmente, perché ha smesso di funzionare nel 2013, con l’aggiornamento chiamato Hummingbird. Da allora, il sistema identifica e posiziona le pagine anche per i sinonimi e le intenzioni di ricerca simili. L’italiano in quanto lingua “minore” ha ancora (pochissimo) margine per SERP differenziate, ma la tendenza è quella di uniformare e restituire i risultati in funzione dell’intenzione, non delle keyword per sé.

Cosa fare invece?

Per evitare questa tecnica SEO obsoleta, lavoriamo sull’argomento, non irrigidiamoci sulle keyword, che peraltro “valgono” sempre meno come entità a sé stante. Usiamo sinonimi e variazioni, che renderanno anche la lettura migliore per l’utente, che dovrebbe essere sempre il nostro obiettivo reale.

La densità delle keyword, la decana delle tecniche SEO obsolete

Altro concetto che risale agli albori della SEO. Un tempo si credeva che per far capire all’algoritmo che una pagina parla di un determinato argomento, fosse necessario ripetere la keyword principale diverse volte. Insomma quello che il (non troppo) buon (ma sicuramente) vecchio Yoast ancora adesso ci propone. Anche se per la verità i requisiti per ottenere il famigerato semaforo verde si sono ridimensionati. Secondo l’articolo, nel corso degli anni i sedicenti esperti SEO sono arrivati a sostenere che il cinque per cento del testo dovesse essere una ricorrenza esatta della parola chiave. Non ho nemmeno la forza di commentare. Non andrebbe nemmeno inserita fra le tecniche SEO obsolete perché la verità e che non ha mai avuto senso.

Perché non funziona?

Le keyword nel loro complesso hanno ancora una loro rilevanza, ma per dirci di piantarla con la densità delle keyword e l’uso ossessivo in generale si era scomodato addirittura Matt Cutts. Nel 2011.
Se non bastasse, ricordiamoci che il keyword stuffing è universalmente riconosciuto come spam, e può essere tanto controproducente. Oltre a essere il nemico numero uno della qualità del testo.

Cosa fare invece?

Prima di tutto, e collegandoci alla prima delle tecniche SEO obsolete, evitare di concentrarci su una sola keyword o più in generale su un numero limitato di keyword. Esistono ottimi strumenti in grado di fornirci uno scheletro di traccia da seguire con un numero accettabile di parole chiave. Ma soprattutto, è questo è un consiglio strettamente personale, investire più sulla qualità del testo e delle informazioni che non a giocare con le liste di keyword.

Insomma, se abbiamo un quarto d’ora da spendere, spendiamolo per approfondire l’argomento piuttosto che a fare strategia sulle keyword da utilizzare. Anche perché (ma potrebbe essere l’argomento di un prossimo post) la competenza in un settore trascina nel testo una quantità impressionante di keyword secondarie e di coda lunga, spesso in modo migliore rispetto agli strumenti analitici.

La lunghezza del testo

Altro cavallo di battaglia dei consulenti SEO preistorici: ingabbiare i testi fra una lunghezza massima e minima. Personalmente mi ha sempre fatto ribrezzo il solo pensiero di vendere testi come il prosciutto al banco (Signora, sono 485 parole, che faccio, lascio? Come dice, ne voleva 450 giuste?). Ma al di là di questo, chiunque non abbia iniziato a scrivere l’altro ieri sa che la lunghezza perfetta cambia in funzione dell’argomento che si tratta.

A scanso di equivoci: lavorare su lunghezze predeterminate non è sbagliato per sé: sulle riviste cartacee per esempio si fa da sempre. Ma in quel caso si sceglie l’argomento in funzione dello spazio. Purtroppo nella SEO la tendenza diffusa è quella di comprimere o stirare l’argomento per incastrarlo in uno spazio predeterminato. Una differenza tutt’altro che sottile. Ma sto divagando.

Tornando a noi, la lunghezza del testo è sicuramente importante, ma lo è per i lettori. Tutte le ricerche infatti dimostrano come i testi lunghi siano mediamente preferiti dagli utenti, vengano più condivisi e (secondo l’articolo originale) attraggano più backlink. Pronti via, capendo male e distillando peggio la differenza fra SEO ed engagement, ecco che i consulenti SEO (nostrani in particolare) avevano confezionato la solita regoletta sulla lunghezza consigliata. Che negli anni ha fluttuato per assestarsi intorno alle 1.500 parole. E che naturalmente non funziona. O meglio, non si può considerare una regola universalmente valida.

Perché non funziona?

Lo dico con parole mie. Banalmente, perchè è stupido anche solo pensare di poter far rientrare ogni argomento in 1500 parole.

Perché se devo spiegare di che colore era il cavallo di Napoleone, dopo aver scritto BIANCO dovrò menare le tolle al lettore per altre 1.499 parole. O peggio, come fanno alcuni siti anche molto famosi, menerò le tolle al lettore per 1.499 parole prima di scrivere “bianco”. La dimostrazione che questo modo di scrivere è morto e sepolto la abbiamo da un famoso sito di tutorial, il cui andamento nell’ultimo anno è questo:

Lo stesso ovviamente vale al contrario. Se devo spiegare a un lettore cosa sia una modulazione 64 PSK da zero, 1.500 parole mi bastano appena per la premessa.

Cosa fare invece?

Dimentichiamoci una volta per tutte le lunghezze predeterminate, archiviamole fra le tecniche SEO obsolete e passiamo oltre. Scriviamo fino a quando l’argomento non è concluso. Se lo facciamo per terzi, chiariamo molto bene questo aspetto in fase contrattuale, spiegando al cliente che stabilire aprioristicamente una lunghezza è un pessimo servizio.

E soprattutto, mettiamoci in condizione di poter scrivere bene e senza dover centellinare le parole per stare nel budget o stiracchiare un argomento per raggiungere l’obiettivo di battute.

I backlink dal web 2.0 (social e compagnia bella)

Quando il nostro era un mondo semplice, ottenere più link era sempre una buona cosa. Anche se venivano da social e forum. Questo ovviamente ha generato i soliti mostri di spam selvaggio, che, come al solito, ha portato Google a correre ai ripari.

Perché non funziona?

In questo caso è peggio. Se cercate nel dizionario sotto la voce inutile e dannoso ci sono i backlink provenienti dai contenuti generati dall’utente. Nel 2005 Google ha chiarito che le pagine e i siti con molti backlink di questo tipo vengono penalizzate. Se vi siete mai chiesti da dove abbia origine l’abominio del nofollow, ora lo sapete: dovete dire grazie a chi ha spammato come un animale.

Cosa fare invece?

Facciamo prima di tutto un distinguo: non tutti i link sono inutili per la SEO, e allo stesso modo non possiamo archiviare ogni attività basata sui segnali social fra le tecniche SEO obsolete. Ma certamente quelli provenienti da forum o pagine note per essere popolati di spammer sono negativi. D’altro canto, questo non significa che non siano utili ad altri obiettivi. Per esempio, diverse persone oggi cercano contenuti direttamente all’interno di piattaforme come Instagram o YouTube. Esserci con i dovuti accorgimenti (che vorrebbe dire anche una SEO dedicata) significa ottenere traffico anche da quelle fonti. Ma deve essere chiaro che punto o poco ha a che vedere con la SERP di Google.

Inoltre, i link di buona qualità continuano a funzionare. Sempre che non siano ottenuti con tecniche poco raccomandabili.

I Network di Blog privati

Altra tecnica molto in voga qualche anno fa, l’idea di creare un nostro network di siti per generare link verso il sito principale. Ovviamente, controllando tutto, abbiamo molta semplicità a generare collegamenti. Per diverso tempo è stato in effetti un modo piuttosto rapido per sollevare il ranking del nostro sito principale.

Perché non funziona?

Per dirla con un eufemismo, la tecnica non è apprezzata dall’algoritmo di Google. Secondo alcuni è considerata una tecnica al limite del black hat SEO. Ci sono alcuni network che funzionano, ma per aggirare i controlli è necessario produrre contenuti di qualità, utilizzare IP diversi e diversificare il profilo backlink. Un lavoraccio, che è praticamente come gestire davvero ogni sito come se fosse una pubblicazione reale.

Cosa fare invece?

L’articolo originale suggerisce di usare uno strumento dell’azienda con verificare il profilo backlink dei competitor, e verifcare se sia possibile procurarsi link analoghi, evitando i nofollow e quelli di bassa qualità.

L’alternativa, ovviamente, è quello di mantenere un network reale di siti da usare a supporto delle nostre attività. E, visto il costo attuale dei backlink, potrebbe non essere un’idea così campata per aria.

Guest blogging (aka Guest Posting)

Far ospitare un intervento “sponsorizzato” su un altro sito non è una cattiva idea di per sé, ma come sempre l’abuso ha generato mostri di post uguali, ripetitivi, al limite dello spam. Anche questo tipo di attività, insomma, è stato spremuto al limite, e ora fa parte delle tecniche SEO obsolete, fondamentalmente per esaurimento.

Perché non funziona?

Anche questa volta, è stato proprio Matt Cutt a disincentivare l’uso dei guest post, nel 2014. Ma soprattutto, Google oggi valuta la qualità di ogni singola pagina. Quindi, un pessimo post su un ottimo sito, ci darà risultati pessimi. In alcuni casi, addirittura penalizzanti.

Cosa fare invece?

Per la verità, la tecnica funziona ancora. Ma deve essere messa in pratica con un livello qualitativo molto elevato. Quindi, il profilo del sito che ci ospita deve essere molto alto, e la qualità del post che chiediamo di ospitare deve offrire un reale valore aggiunto per i suoi lettori.

Anchor Text corrispondenti alle keyword esatte

Altra tecnica SEO obsoleta che fa parte dell’arsenale della maggior parte degli esperti SEO: quando si richiede un backlink, lo si richiede per una keyword esatta. La mia opinione è sempre stata che se non viene fatto più che bene genera testi illeggibili, quindi è da evitare per la prima e la seconda regola d’oro (il contenuto è il re; il contesto è la regina). Finalmente ho le prove, grazie a questo articolo che sto traducendo: non solo è inutile, ma rischia di essere considerata una pratica manipolativa. Possiamo leggere i ragguagli sulla Guida di Google.

Perché non funziona?

Semplicemente, l’algoritmo di Google non è più così banale. I link vengono valutati usando il testo che li circonda e spesso anche un contesto semantico ancora più allargato, per stabilirne il reale valore. Al contrario, i link sovraottimizzati vengono visti come non naturali e quindi parte di uno schema. E come pratica scorretta, portano quasi sicuramente a una penalità.

Cosa fare invece?

Ancora una volta, la scelta migliore è quella che implica meno sotterfugi. Possiamo ricorrere a keyword branded (per esempio Massimiliano Monti), a link nudi (per esempio www.filippomiotto.net) oppure a collegamenti lunghi (per esempio un altro ottimo consulente SEO con cui lavoro e che si occupa anche di Web Marketing in generale).

L’ottimizzazione E-A-T

Dopo l’aggiornamento di agosto 2018, che ha influenzato soprattutto i siti che trattavano temi medici e vicini alla salute, si è creata la convinzione che il fattori sintetizzati nell’acronimo E-A-T (Expertise, Authority e Trustworthiness) fossero fondamentali. Come sempre questa convinzione ha portato a un florilegio di regolette: di certi argomenti possono scrivere solo autori con una certa reputazione, bisogna ottimizzare le pagine about, quelle dei termini e condizioni, bisogna aggiornare i post vecchi, le menzioni social sono importanti, e così via.

Remote Working errori e soluzioni

Perché non funziona?

In questo caso, nessuna delle attività sopra citate è dannosa, ma non esistono prove definitive della loro efficacia. Se abbiamo tempo e opportunità le possiamo seguire, a favore degli utenti, ma in molti casi diventano un enorme spreco di risorse.

Cosa fare invece?

In questo caso Link Assitant suggerisce di usare il proprio strumento per effettuare un’ottimizzazione tecnica invece di rendere perfetti testi e contenuti che sono già di qualità. Mi permetto di suggerire una soluzione mediata: ok alla revisione e ottimizzazione, anche di testi e contenuti, ma concentriamoci su quelli di qualità più bassa. E usiamo il resto del tempo per i fix tecnici e per lavorare sulla velocità del sito, per esempio.

AMP, ovvero come le tecniche SEO obsolete a volte sono semplicemente sbagliate

Chiunque lavori con la Rete dovrebbe conoscere AMP, il framework fortemente voluto da Google per erogare pagine molto velocemente su dispositivi mobili. Anche in questo caso è successo quello che succede sempre: qualcuno ha rilevato un aumento di traffico usando AMP, e immediatamente la comunità ha vampirizzato AMP dandolo per indispensabile.
In realtà, non è affatto così.

Perché non funziona?

Prima di tutto, come riporta l’articolo originale, AMP non è un fattore di ranking:

https://twitter.com/JohnMu/status/1101071243917361152

Secondariamente, i risultati di AMP dipendono dal tipo di sito. Perfetto per siti di news e media, per via delle sezioni di SERP specifiche che Google ha creato (Carousel e così via). Ma per tutti gli altri tipi di siti non ci sono evidenze di vantaggi.

Cosa fare invece?

Questa è facile: invece di adottare un framework apposito per ottenere velocità maggiori, lavoriamo sulla velocità del sito in generale. I risultati saranno più solidi.

Content Spinning

Casomai ci fosse bisogno di specificarlo, produrre decine di pagine con piccolissime variazioni non ha alcun senso. Ne aveva più di dieci anni fa, quando l’algoritmo di Google era molto meno raffinato e privilegiava la quantità sulla qualità. Spesso era associata alla creazione di backlink dai social, che abbiamo visto prima.

Perché non funziona?

Oggi le pagine di bassa qualità possono avere due destini. Nella migliore delle ipotesi vengono ignorate. Altrimenti, se l’algoritmo identifica uno schema vengono penalizzate. Altro caso di tecnica SEO inutile e dannosa.

Cosa fare invece?

Se dobbiamo creare contenuti, la scelta migliore è aggiornare (in modo intelligente) i vecchi post e articoli, magari facendoci aiutare da uno strumento di analisi. L’idea di riscriverli modificandoli leggermente è delirante. Richiede più sforzo e porta meno risultati. Usiamo quello che già funziona e attualizziamo i contenuti, aggiungiamo approfondimenti e così via.

I domini con parole chiave esatte

I domini con corrispondenza esatta di parole chiave, o quelli con molte parole chiave, una volta erano considerati un segnale molto forte di rilevanza per la ricerca. Per un brevissimo periodo era così facile ottenere posizioni con dominio adatto alla ricerca, che il contenuto passava in secondo piano. Anche in questo caso, appena la scorciatoia è diventata palese, i domini con corrispondenza esatta sono entrati nella lista dei segnali ignorati.

Perché non funziona?

Perché lo ha detto Matt Cutts. Nel 2012. Eppure qualcuno è ancora convinto che funzioni.

Cosa fare invece?

In questo caso non è penalizzante, ma inutile. Inoltre ci costringe a nomi lunghi, complicati da scrivere e a rinunciare al nostro marchio. Insomma, sacrifichiamo molto per non avere nulla.

Il meta tag keyword

Roba da museo dei motori di ricerca. Eppure, sono ancora molto richieste da molti clienti, e proposte da alcuni consulenti SEO. Come dovremmo sapere, si tratta di un tag HTML specifico per elencare le keyword di una pagina. Si tratta probabilmente del primo caso della storia della SEO di abuso, che ha costretto Google a correre ai ripari.

Perché non funziona?

Undici anni fa Google ha fatto un annuncio ufficiale in cui diceva al mondo intero che non usa il tag Meta Keyword per classificare le pagine. Più di così… Eccolo qui, per la cronaca.

Ancora una volta, usarlo non penalizza (sempre che le keyword non siano dissociate dal reale contenuto), ma è una perdita di tempo. Alcuni CMS le inseriscono in automatico, sulla base per esempio delle tag, e se sono coerenti non c’è nulla di male (ma sulle tag di WordPress, per esempio, andrebbe aperta una enorme parentesi).

Cosa fare invece?

Guarda caso, l’unico modo per “pilotare” Google è quello di produrre contenuti di qualità, sia dal punto di vista tecnico, sia da quello semantico, e di soddisfare le intenzioni di ricerca. Facendo un uso moderato e intelligente, per esempio, degli strumenti che ci suggeriscono le keyword.

Un pensiero finale

In questo mi discosto un po’ dall’articolo originale. Perché, scorrendo questa lista, emerge n tema dominante e principale. cioè che nella SEO le scorciatoie non funzionano mai o, se lo fanno, è per un periodo estremamente limitato. Gli esperti SEO continuano ostinatamente a cercare sistemi per evitare di produrre buoni contenuti, ma è sempre più evidente che produrre contenuti di qualità è l’unica tecnica SEO che non diventerà mai obsoleta.

Lezioni di SEO - un esempio di cosa racconto a scuola

Lezioni di SEO – Snippet lunghi, Facebook e pragmatismo

Lezione di SEO all’interno del corso di Tecnico Grafico per il Multimedia e il Web Design presso EnAIP Biella del 18 gennaio 2018

Come ho già raccontato varie volte, spesso le lezioni di SEO devono abbracciare diversi argomenti. Del resto la professione di esperto SEO è multidisciplinare per sua stessa natura: oggi si scrive di computer quantistici, domani di articoli per ferramenta, dopodomani di cibi esotici: in fondo è il suo bello, non ci si annoia mai.

In questa lezione, oltre ad esserci cimentati con la stesura dei primi testi, abbiamo visto un paio di argomenti di attualità: un concetto fondamentale che ogni buon insegnante, SEO soprattutto, dovrebbe sempre far passare è che il nostro mondo è in continua evoluzione, spesso con ritmi nevrotici. Ecco perché abbiamo parlato sia dei nuovi cambi nell’algoritmo di Facebook, sia dei nuovi Snippet più lunghi all’interno delle SERP di Google.

Lezioni di SEO, ha senso parlare di Facebook?

In realtà fa parte di quelli che io chiamo “argomenti tangenti”: è vero che SEO e Facebook hanno pochi punti di contatto, o comunque la connessione non è così immediata, ma non è difficile prevedere come un crollo della reach organica sul social media possa persuadere alcune aziende a tentare nuove strade, fra cui potrebbe esserci quella di avviare un lavoro di revisone SEO del proprio sito. E poi, cari allievi che leggete, non mi stancherò mai di ripetere che questo è un mondo in cui bisogna sapere sempre tutto quello che accade!

Lezione di gennaio 2018, SEO convenzionale, non e un po’ di discorsi di massimi sistemi

Ecco il testo che ho riportato su Google Classroom, qui riportato con qualche aggiustamento estetico (Google Classroom non supporta le formattazioni dei documenti).


Lezione SEO del 18/01/2018 – Come cambia il mondo, spesso molto rapidamente.

Un brevissimo riepilogo degli argomenti legati all’ecosistema della comunicazione digitale ma non strettamente all’ambito SEO.
Prima di tutto, Mark Zuckerberg ha annunciato un cambiamento nell’algoritmo di Facebook, che darà sempre maggiore visibilità ai post delle persone, in particolare i nostri amici e parenti, e sempre meno alle “pagine”, in particolare quelle aziendali.
Visto che il tentativo è quello di rendere Facebook un luogo più “piacevole“: tra le righe molti esperti leggono un tentativo di mettere un limite allo spam, alle fake news e in generale ai contenuti irrilevanti. Ecco spiegato anche un giro di vite annunciato sui contenuti pensati per fare clickbait, come “tagga i tuoi amici” o “condividi se…”.
Il dato oggettivo è che le aziende che desiderano conservare lo stesso livello di visibilità su Facebook dovranno, presumibilmente, aumentare i budget per la promozione.

Snippet più lunghi. Cambia tutto o non cambia nulla?

Altra novità, meno “epocale” ma sicuramente più rilevante con le attività SEO, riguarda un cambiamento nei risultati di ricerca (Le SERP, come vengono definite in gergo): Google infatti ha iniziato a restituire sempre più risultati con snippet più lunghi: la descrizione al di sotto dell’indirizzo insomma, non sarà più limitata ai circa 160 caratteri canonici che abbiamo utilizzato finora, ma potrebbe arrivare anche a 320, e contenere informazioni aggiuntive come link a sezioni interne.
In realtà non è un reale cambiamento, questo tipo di snippet esiste almeno dal 2009, ma diverse ricerche indipendenti confermano come ora siano più presenti rispetto al passato.

Dobbiamo cambiare il modo di pensare alle meta description?

Tipicamente, le buone pratiche SEO spiegano come lo sippet corrisponda al campo

<meta name=”description”

che inseriamo in ciascuna pagina. Il che è vero, ma spesso i risultati di ricerca con snippet lunghi fanno eccezione: in questo caso infatti Google predilige scandagliare la nostra pagina alla ricerca di informazioni che, in base all’algoritmo, possono essere più utili all’utente, in base alla ricerca che ha fatto.
Quindi, non solo lo snippet spesso non corrisponderà più alla meta description, ma potrebbe (e per la verità accade piuttosto spesso), cambiare per la stessa pagina in funzione delle keyword per cui è presente in SERP.

Il consiglio pratico è quello di seguire il suggerimento di Moz: verificare se nelle SERP in cui il nostro sito è posizionato sono presenti long snippet e in quel caso provare a modificare la meta description rispondendo alla nuova specifica; ma sapendo che probabilmente Google continuerà a estrarre il testo che ritiene più rilevante dal corpo della pagina.


Lezione di SEO sugli snippet, un’integrazione

Purtroppo il sistema di Google Classroom non permette di inserire immagini in pagina (andrebbero allegate, il che ne mina la leggibilità), quindi riporto qui una brevissima ricerca appena effettuata proprio in merito agli snippet lunghi. Ecco come si presentano le due pagine di questo sito meglio indicizzate, in base alla keyword per la quale vengono raggiunte.

Pagina 1, dispense ECDL gratis

Meta description dichiarata:
<meta name=”description” content=”Un articolo-segnalibro per trovare rapidamente le dispense ECDL gratuite per i corsi ECDL Full Standard e Base, aggiornato periodicamente.”/>

Risultati nella ricerca:

“moduli ECDL pdf”

Risultati di ricerca ilkappa.com con snippet lungo

“ECDL libro download”

Risultati di ricerca ilkappa.com con snippet lungo

“Dispense moduli ECDL”

Risultati di ricerca ilkappa.com con snippet lungo

Pagina 2, Seo a Biella

Meta description dichiarata:
<meta name=”description” content=”Fare SEO a Biella, o in generale nella provincia italiana, e lavorare bene. Ecco un po’; della mia esperienza, come consulente e come insegnante SEO.”/>

Risultati nella ricerca:

“Posizionamento SEO Biella”

Risultati di ricerca ilkappa.com con snippet lungo

“Lezioni di SEO a Biella”

Risultati di ricerca ilkappa.com con snippet lungo

“SEO a Biella”

Come possiamo vedere, di sei SERP analizzate, solo una utilizza la meta description ed è anche l’unica con snippet “breve”. Se proviamo a pensare all’intenzione di ricerca è anche piuttosto comprensibile: si tratta di quella con l’intento più “generico”, quindi la meta description, presumibilmente, risponde alle esigenze dell’utente.

Come accennato, questo materiale è stato utilizzato all’interno di una lezione nel corso di Tecnico Grafico per il Multimedia e il Web Design presso EnAIP Piemonte, CSF di Biella. Riporto anche la stessa bibliografia:

Dichiarazione ufficiale di Mark Zuckerberg sul cambio negli algoritmi di Facebook;

Il mio articolo sul sito dell’agenzia di comunicazione Hydrogen sull’argomento

Lezioni di SEO

Lezioni di SEO: le più importanti sono sulla tua pelle

Qualche giorno fa, come mi sembra sia abbastanza noto dai risultati ottenuti, ho fatto un piccolo esperimento, creando una pagina che parlava di come si lavora con la SEO a Biella e in provincia in generale.

Quel post, ovviamente, era sia un modo divertente per dire alcune cose, sia un esperimento per vedere quanto fosse facile o difficile scalare la SERP su una parola chiave piuttosto presidiata ma molto verticale; si è trasformata in una delle lezioni di SEO più importanti della mia vita recente.

SEO, Biella. Esperimento riuscito. A metà.

Bene, le cose sono andate in modo imprevedibile. Appena il buon vecchio Google ha recepito il post, questo è volato in terza posizione. Onestamente, mi aspettavo qualcosa visti i volumi in gioco e la struttura della SERP di Google (sulla cui analisi ho imparato più in un’ora di corso del buon Alberto Puliafito che nella totalità delle robe che i vari guru spacciano in giro). Ma direttamente in terza posizione, subito dopo due pagine di chi ci ha investito tempo e risorse, è una specie di wet dream per chi lavora (o si diverte, come il sottoscritto) con la SEO.

posizionamento SERP ilkappa.com

E questa è la metà buona.

Quella cattiva è che il giorno dopo la pagina è stata calcioruotata fuori dalla SERP di Google. Non retrocessa, proprio sparita. Anche cercando nel solo sito, la pagina non era visibile.

Cosa succede quando una pagina sparisce improvvisamente dalla SERP

Il primo istinto, per un consulente SEO, è comprare abbastanza medicinali contro l’ansia da sedare un intero gruppo di whatsapp di mamme informate. Poi però bisogna iniziare con le cose serie.

Check list minima in caso di pagine sparite dalla SERP

  • la pagina è ancora raggiungibile?
  • la pagina è ancora in sitemap?
  • la pagina è raggiungibile attraverso la serp di altri motori, per esempio Bing?
  • la pagina è sparita per una sola parola chiave, per le sue derivate o per qualsiasi cosa?

Nel mio caso specifico, tutto ok fino a Bing. Poi, zero. Anche scandagliando tutte le pagine che Google vedeva del mio sito. Cosa era successo? Mistero. E panico.

Una pagina del mio sito è sparita dalla SERP. Cosa può essere successo?

Gran bella domanda, per rispondere alla quale devo prima chiudere la vicenda: la pagina è tornata in SERP dopo qualche giorno. (mentre sto scrivendo è al quinto posto per “SEO a Biella” e nona per “SEO Biella”, un risultato comunque interessante).

Dopo un po’ di studio e qualche analisi, mi sono convinto che per quello che è accaduto esistono tre possibilità, che elenco dalla più incredibile a quella che secondo me è più realistica:

  1. La mia pagina è stata rimossa dalla SERP in seguito a una segnalazione.
    • Ipotesi: Google mette a disposizione uno strumento apposito per segnalare pagine con contenuti non conformi e non di qualità, e anche se non è così raggiungibile, un bravo esperto SEO sa perfettamente dove si trova.
    • Tesi: Tuttavia mi sembra fantascienza che qualcuno si sia preso una tale briga per eliminare un “concorrente” o perché indispettito dal mio operato. Diciamo che questa ipotesi è servita più che altro a massaggiare il mio ego.
  2. La mia pagina è stata rimossa dalla SERP perché sovraottimizzata
    • Ipotesi: Fra gli esperti di SEO e coloro che vorrebbero diventarlo come il sottoscritto, è cosa più che nota che a Google non piacciono i giochetti. Sarebbe più corretto dire che nel 2017 lo sanno anche i sassi che scrivere per forzare il posizionamento di parole chiave e fare altre cose strane ci trascina verso il baratro. E la pagina che ho realizzato era, per molti aspetti, un esperimento per vedere quale fosse il limite fra una forzatura “sana” delle parole chiave e un coacervo di trucchetti, anche se di quelli veniali.
    • Tesi: L’algoritmo di Google tuttavia è piuttosto “sveglio” e di solito le pagine “stuffate” escono dalla SERP soprattutto se vengono modificate e gonfiate intollerabilmente dopo esservi entrate. Altrimenti, solitamente, vengono relegate fin da subito ai risultati più remoti. Vero è anche che con i volumi in gioco è possibile che il tempo macchina dedicato alla scansione sia stato in prima istanza talmente poco da permettere solo un controllo di superficie (ma, in tutta onestà, non so quanto il crawler sia un algoritmo time-critical).
  3. La mia pagina è stata rimossa dalla SERP perché ho generato “artificialmente” un volume anomalo.
    • Ipotesi: Nessuno sa bene cosa succede sotto il cofano di Google (ricordiamoci che la SEO è per una buona parte fatta di ipotesi e reverse engeneering casereccio), ma una cosa è certa: i nodi vengono al pettine e le anomalie non passano inosservate. Ovviamente, dopo aver posizionato la pagina, ho passato qualche giorno a mostrarla a colleghi e amici esperti, un po’ perché mi sembrava una lezione di SEO empirica interessante, un po’ perché come tutti i giornalisti, ho un ego famelico. Questo ha senza dubbio generato un volume di ricerche anomalo, su parole chiave e derivate a volumi così bassi.
    • Tesi: suona un campanello, la pagina viene “sospesa”. Nel frattempo il sistema verifica se la pagina in sé ha problemi o forzature, oppure se le visite sono state pilotate in qualche modo non lecito. Dopo qualche giorno, verificato che non ci sono state particolari stranezze, probabilmente la pagina viene nuovamente indicizzata. Per mia fortuna, la forzatura è stata dettata soprattutto dall’ingenuità: non avendo tenuto in considerazione i volumi, non pensavo che la ventina di visite “agevolate” dai miei contatti potessero suonare come qualcosa di illecito. Tuttavia mi sembra l’ipotesi più credibile perché la pagina è tornata al suo posto.

Cosa ho imparato dalla mia pagina sparita dalla SERP e poi riammessa?

Diverse cose, ma soprattutto ho avuto alcune conferme.
La prima è che, come già i più esperti sostengono da tempo, Google non “penalizza”: ti rimuove e basta. Può essere un cartellino giallo o rosso, ma per intanto la tua pagina viene “accomodata” non solo fuori dalle SERP, ma proprio fuori dall’indice. Insomma, le ammonizioni non esistono: se la mia pagina perde posizioni, è perché le informazioni non sono più così utili o perché altri stanno facendo un lavoro migliore del mio. Se istigo Google a passare con la mannaia, sparisco. Ma non vengo “retrocesso” o “indietreggiato” artificialmente.

Secondariamente, che i giochetti non pagano mai, anzi. Tutto quello che suona poco meno che naturale, fa scattare i sistemi di allarme. E se ha “tirato le orecchie” a me per una cosa ultra verticale e ultra locale come quella di cui racconto, figuriamoci cosa può capitare dove ci sono i volumi veri e la competizione è spietata.

Terzo, che però la qualità paga sempre e che #writeforhumans è davvero la strada. L’unico motivo per cui la mia pagina si è “salvata” è perché, al di là di qualche piccola furberia, è stata pensata davvero con l’intenzione di dire qualcosa, di raccontare un’esperienza, di essere utile. Ma soprattutto, di essere frutto di una esperienza diretta e unica.
Quindi, ancora una volta: l’unico vero “trucco SEO” di cui abbiamo veramente bisogno è quello più difficile da accettare: scrivere bene e dare informazioni rilevanti è il primo punto in cima alla lista.
Dopo, spesso molto più in basso, viene tutto il resto.