abbandonare gli algoritmi

Possiamo abbandonare gli algoritmi e riprendere il controllo?

Probabilmente no, o almeno non nell’immediato. Ma ci sono alcune cose che possiamo fare per abbandonare gli algoritmi.

Tutti noi abbiamo un problema con gli algoritmi. Anche chi non lo sa. Ne ho già parlato diverse volte, ma il principale problema di lasciare che le macchine decidano per noi è che gli algoritmi riescono a malapena a lavorare per interpolazione, a volte per estrapolazione. Figuriamoci se sono in grado di “capirci” e proporci davvero quello che ci potrebbe interessare.

Se poi aggiungiamo all’equazione che gli algoritmi non sono affatto nostri amici, ma sono semplicemente lì per venderci qualcosa, il quadro è completo.

Se qualcuno si sta chiedendo perché si ha l’impressione che io abbia astio per gli algoritmi, la risposta è semplice: perché è esattamente così. Per la precisione, sono contrario a questo tipo di algoritmi, per la ragione che ho già espresso più volte. Se il fine ultimo di un algoritmo è la “conversione”, come oggi, questo nel suggerirci qualcosa farà sempre la scelta più sicura. Che fatalmente, significa puntare verso il basso. Che fatalmente, significa lo sfacelo che vediamo tutti sui social media.

L’idea di abbandonare gli algoritmi ha trovato uno sponsor illustre

Nientemeno che Tim Cook di Apple. L’azienda di recente sembra aver deciso di schierarsi in prima linea nei confronti della privacy degli utenti, ma lo speech a cui mi riferisco è leggermente precedente. Se ne parla in questo articolo su Lifehacker, da cui ho preso spunto per questo post.

Il succo del discorso fatto da Tim Cook è riassunto nella parte riportata:

Acluni algoritmi ci attirano verso le cose che già sappiamo, crediamo o ci piacciono, e respingono tutto il resto. Lo allontanano da noi

Insomma secondo Cook, il problema degli algoritmi non è tanto che ci suggeriscono sempre le stesse cose. Ma soprattutto che ci allontanano da tutto il resto. Ciascuno di noi ha a disposizione un tempo sempre più limitato per leggere, guardare documentarsi. E gli algoritmi di raccomandazione lo ingolfano di contenuti e concetti identici a quelli che ci sono piaciuti o interessati in passato. Impedendoci di fatto di allargare i nostri orizzonti. E, anzi, restringendoli sempre di più.

Abbandonare gli algoritmi è una scelta per la nostra salute

Ma è possibile in qualche modo rompere la spirale e abbandonare gli algoritmi? Sicuramente si. Ma come per il cibo spazzatura o la vita sedentaria, ci vuole qualche sforzo, disciplina e soprattutto consapevolezza. Non per niente alcuni negli Stati Uniti e nei paesi anglofoni hanno iniziato a parlare di information diet, cioè la dieta delle informazioni. Il che implica uscire dalla bulimia, abbandonare gli algoritmi e ricominciare a cercare e ottenere informazioni, ma anche musica, video, trasmissioni e così via in modo sempre più consapevole.

Abbandonare gli algoritmi per uscire dalla “Echo Chamber”

La prima cosa da fare, se vogliamo riconquistare la libertà di informarci, è quella di cercare di cambiare il comportamento delle piattaforme che usiamo.

In alcuni casi, per esempio Twitter, possiamo decidere di rinunciare a una selezione algoritmica a favore di un feed rigidamente cronologico su altre piattaforme, per esempio Facebook, questo non è possibile.

Il consiglio principale comunque e è quello di evitare i social media come fonte di informazioni. I social media sono una grande invenzione, ma proprio per la loro inclinazione a riproporci quello che ci interessa, non sono quasi mai in grado di fornire un flusso di notizie affidabile. Oppure, per dirla in modo più semplice, non è logico usare la stessa piattaforma che usiamo per condividere foto di gattini e immagini divertenti come fonte di notizie rilevanti.

La migliore interpretazione della Echo Chamber, realizzata e pubblicata da Zesty Things

Twitter ha rappresentato per anni una eccezione, ma l’introduzione di algoritmi di filtraggio nel flusso lascia dubbi sulla sua neutralità. In ogni caso, possiamo iniziare la nostra dieta usando piattaforme meno prone alla viralizzazione. Per esempio Reddit, che ci permette di scegliere in modo trasparente quale tipo di visualizzazione sfruttare, e quali argomenti seguire, oppure aggregatori come InoReader o Feedly, che si limitano raccogliere le notizie senza applicare filtri a monte, ad eccezione di quelli che impostiamo noi.

Abbandonare gli algoritmi o educarli?

Parliamoci chiaro: rinunciare ai social media spesso non è una opzione percorribile. Ma questo non significa essere obbligati a usarli anche come fonte di notizie.
Il consiglio qui è di sfruttare l’accondiscendenza degli algoritmi a nostro vantaggio. Se iniziamo a ignorare le notizie, un po’ per volta scompariranno. Se vogliamo accelerare il processo, usiamo gli strumenti che ci permettono di esprimere le nostre preferenze. Nascondiamo i contenuti che non gradiamo e soprattutto togliamo sistematicamente il “like” alle pagine che condividono informazioni che non gradiamo.

E se vogliamo contribuire attivamente a costruire un ambiente più sano anche per la information diet degli altri, evitiamo di condividere bufale, fake news e informazioni irrilevanti e soprattutto segnaliamo senza remore ogni tipo di contenuto inappropriato, dall’incitazione all’odio alla pseudoscienza passando per le fake news.

In questo modo il “nostro” algoritmo sarà costretto a proporci cose nuove, nel tentativo di profilare nuovamente i nostri interessi, e nel contempo avremo contribuito ad arginare la proliferazione dei contenuti tossici.

Ma non è tutto.

La strada per abbandonare gli algoritmi passa anche dal nostro telefono

In una parola, le notifiche sono il male, perché ci forzano subdolamente a sottostare ai ritmi imposti dai sistemi e dalle App. Esattamente il contrario di quello che è giusto che accada.

Sono le macchine e gli algoritmi a dover sottostare ai nostri tempi, e non viceversa.

Teniamolo a mente: per un uso consapevole, qualsiasi cosa che ci spinga nella direzione opposta, anche inconsciamente, è sbagliata.

Per disintossicarci disattiviamo qualsiasi tipo di notifica che non sia strettamente indispensabile. E se proprio qualche App non ce lo consente, sostituiamola o eliminiamola dalle nostre abitudini. Garantisco per esperienza personale che non perderemo nulla anzi, riconquisteremo tempo e lucidità per seguire le questioni davvero rilevanti.

Per tornare padroni del nostro tempo (e del nostro cervello) l’approccio consapevole è fondamentale

C’è una regola tanto empirica quanto filosofica che dobbiamo tenere presente nella nostra lotta contro gli algoritmi: per quanto sia comoda e affascinante l’idea di avere macchine che lavorano per noi, qualsiasi sistema automatico che non abbiamo programmato di persona, in realtà non lavora per noi, ma per chi ne è il proprietario. E sappiamo che lo scopo finale in casi come questi è venderci qualcosa, o comunque forzarci a consumare.

Quindi, è per definizione inaffidabile. A meno che non riusciamo a escogitare un sistema per sfruttare gli algoritmi a nostro vantaggio. In qualsiasi altro caso, facciamo molto meglio a farne a meno. E usare la nostra testa.

algoritmi di raccomandazione

Come gli algoritmi di raccomandazione “governano” il mondo.

I sistemi di raccomandazione, o algoritmi di raccomandazione, sono onnipresenti in qualsiasi sito o servizio mediamente evoluto. Con conseguenze dirompenti, e non sempre positive, sulla nostra vita.

Alzi la mano chi non è mai incappato in un suggerimento su un sito di shopping, su un trending topic o su un post ampiamente condiviso e si è chiesto perché vedo questa roba?

La risposta è semplice: algoritmi di raccomandazione. I sistemi di raccomandazione sono ampiamente usati, dai servizi maggiori ma anche quelli minori (anche questo sito ne ha uno a fondo pagina che suggerisce altri articoli potenzialmente interessanti).

I motori di raccomandazione sono ovunque

Una premessa: questa riflessione, come accade spesso, non è farina del mio sacco, ma è ampiamente riportata da questo interessante articolo di Wired USA, che spiega, in modo semplice e chiaro, il funzionamento, e soprattutto i limiti, degli algoritmi di raccomandazione. Consiglio a chiunque mastichi l’inglese di leggere l’originale, ma ne riporto qui un sunto dei concetti fondamentali. Per comodità, la “narrazione” dell’articolo originale ha uno sfondo diverso. Il resto sono mie considerazioni

rete algoritmi raccomandazione

Il primo problema degli algoritmi di raccomandazione è che tendono all’autoreferenzialità

Tutto parte dall’autore che nota un libro quantomeno peculiare indicato fra quelli “caldi” suggeriti da Amazon. Le vendite si sono impennate quando il libro è finito nel carosello dei suggeriti, il che ha portato una crescita dell’interesse e così via. 

Beh, questo è abbastanza semplice da capire: quando un prodotto o un tema diventano trending, vengono mostrate a più persone. Il che ne aumenta le possibilità di essere visualizzato. Il che aumenta le discussioni in merito. Visualizzazioni, discussioni e feedback sono i tre pilastri degli algoritmi di raccomandazione di questo tipo. Questa è una debolezza notevole, perché una volta entrati, si crea un circolo di crescita praticamente esponenziale. E lo sforzo marginale per rimanerci , specie se si tratta di prodotti, è relativamente basso.

Everywhere you look, recommendation engines offer striking examples of how values and judgments become embedded in algorithms and how algorithms can be gamed by strategic actors.

“Ovunque guardi, i motori di raccomandazione offrono esempi lampanti di come valori e giudizi vengono inclusi negli algorimti e come gli algorimi possono essere manipolati dagli attori strategici”

Il secondo problema dei motori di raccomandazione è che sono imprecisi

rete algoritmi cyberspazio

Uno dei sistemi di raccomandazione più diffusi è basarsi su quello che le persone “come noi” hanno letto, guardato o acquistato. Ma cosa significa esattamente “come noi”? Si tratta di una questione di età, genere, razza? Gente con gli stessi interessi? Che ci somiglia fisicamente? O piuttosto si tratta delle nostre “fattezze digitali” basate sui dati granulari che i diversi sistemi raccolgono su di noi e poi dati in pasto a un sistema di machine learning?

Insomma, le persone come noi, sono semplicemente persone con una impronta digitale simile alla nostra. Il che spesso si riduce a quelle accettabilmente simili, che è un modo carino per dire che i sistemi prendono su i dati più simili che hanno. Non serve avere un dottorato di ricerca in statistica per capire che in mancanza d’altro, useranno dati con pochissime cose in comune.

Il terzo (e più grave) problema è che gli algoritmi di raccomandazione favoriscono gli stereotipi

Deep down, behind every “people like you” recommendation is a computational method for distilling stereotypes through data.

“Scavando a fondo, dietro ogni algoritmo del tipo “le persone come te”, c’è un metodo computazionale per distillare stereotipi attraverso i dati.

Ricordiamo un concetto fondamentale: gli algoritmi non sono nostri amici, sono macchine pensate per massimizzare il ricavo. E per ragioni meramente statistiche, tenderanno sempre a proporci quello che “il mercato” sembra volere. Quello che cambia è la dimensione della nicchia che viene presa come riferimento, a seconda di quanti dati abbiamo già regalato al sistema di profilazione.

Il passaggio successivo è meramente logico: “statisticamente probabile” e “stereotipo” sono simili in maniera preoccupante, quantomeno nelle logiche di mercato.

La prova, possiamo averla tutti i giorni, e ne ho già parlato quando suggerivo di ingannare gli algoritmi quando prepariamo un computer per “anziani” o per utenti poco esperti. Basta avviare un processo di selezione per fare in modo di ricevere quasi solo suggerimenti provenienti dalla nicchia di riferimento. Oppure (peggio ancora) un mix delle nicchie di riferimento calcolate e di temi “caldi” scelti sulla base di parametri estremamente volatili.

codice algoritmi raccomandazione

Infine, gli algoritmi di raccomandazione privilegiano il sensazionalismo

“…most trending-type recommendation algorithms employ a logic that filters out common terms as background noise and highlights those that have acceleration and velocity on their side.”

“…molti algoritmi di raccomandazione basati sui trend usano una logica che filtra i termini comuni come rumore di fondo e mettono in evidenza quelli che hanno accelerazione e velocità dalla loro parte”

Il problema è che questo seppellisce di fatto qualsiasi tipo di conversazione che abbia un grande volume costante nel tempo. Per esempio nel caso della cronaca i problemi costanti come la salute, il welfare, l’impiego, pur essendo oggetto di moltissime conversazioni, lasciano ampio spazio agli eventi più rari, che ottengono una copertura sproporzionata.

Ironicamente, osserva l’autore, questo è un problema in comune con la carta stampata. Come a dire che di tutto quello che i nuovi media potevano ereditare da quelli tradizionali, hanno preso il peggio.

La parte peggiore è che questo tipo di algoritmi di raccomandazione è estremamente debole e manipolabile.

Il problema di usare l’accelerazione mediatica come valore è che è fin troppo semplice manipolare l’algorimo. Un hashtag o una notizia condivisi dal giusto numero di persone in un tempo sufficientemente rapido, diventeranno virali con molta facilità. Alcuni attivisti di diverse aree hanno già imparato a mettere in pratica questa strategia, preparando interventi con lo stesso hashtag (nell’ambito di Twitter) e postandoli in modo coordinato.

Ma se funziona per Twitter, perché non dovrebbe funzionare anche in altri ambiti? Se per esempio cinquemila fan di un autore (o diecimila attivisti di qualche schieramento) si coordinano per effettuare lo stesso acquisto su Amazon nello stesso momento, quale può essere l’accelerazione conferita al prodotto acquistato?

Una domanda più che lecita perché, se davvero bastasse qualche migliaio di transazioni, “finanziare” un acquisto coordinato potrebbe essere un investimento strategico più efficace di quelli tradizionali.

La soluzione? Rendere gli algoritmi di raccomandazione più trasparenti. O eliminarli del tutto.

Grandi problemi ed enormi limiti, che tuttavia hanno soluzioni piuttosto semplici. Le aziende sono molto gelose del funzionamento dei loro algoritmi. Il sospetto che tale riservatezza nasconda il timore che possa crollare il castello di carte è più che lecito. Se ci fosse più trasparenza nell’indicazione di quello che è “trending” o “consigliato”, sarebbe più semplice per chi vede le proposte decidere cosa fare.

Così come sarebbe quantomeno doveroso, nelle piattaforme in cui sono possibili le sponsorizzazioni, che il sistema mostrasse in chiaro che percentuale della copertura del contenuto è stata a pagamento. Una specie di “certificato di nascita” che di permetta di capire se stiamo vedendo un determinato contenuto per la sesta volta perché è davvero interessante oppure perché qualcuno lo sta sponsorizzando di continuo.

L’alternativa più radicale, ma anche più semplice, sarebbe quella di eliminare gli algoritmi di raccomandazione. Ormai è chiaro che il loro funzionamento lascia molto a desiderare, e spesso non piacciono agli utenti, come dimostra il recente passo indietro di Twitter verso il semplice sistema cronologico.

Il tutto avrebbe almeno due vantaggi: il primo verso l’utente. Ammettiamolo, vedere sempre le stesse cose sapendo che una piattaforma contiene una varietà quasi infinita di contenuti è frustrante. Il secondo vantaggio sarebbe economico: invece di spendere risorse ad inseguire un sistema di raccomandazione scadente ma sempre più complesso e oneroso in termini di calcolo, si potrebbero abbattere i costi, aumentando i margini ed evitando di dovere elaborare sistemi di raccomandazione sempre più stingenti che consumano più risorse senza un reale incremento dell’efficacia. Oggi infatti le aziende investono sulla speranza che un giorno gli algoritmi inizino a funzionare sul serio.

Cosa che però sembra ogni giorno più improbabile, alla luce dei continui problemi di privacy, uso antietico dei dati e fughe di informazioni che quotidianamente minano i servizi che fanno maggiore uso degli algoritmi di raccomandazione.

Google Perde la memoria

Google ha smesso di indicizzare le pagine vecchie

Google sta perdendo la memoria. O non gli è mai interessato averla?

Una notizia circolata sotto traccia nelle settimane passate potrebbe invece avere implicazioni dirompenti nel futuro della Rete: Google ha smesso di indicizzare i siti più vecchi di dieci anni.

Emersa solo in pochi siti mainstream (e guarda caso in nessuno italiano), la scoperta è stata fatta da Tim Bray, uno dei blogger della prima ora. Che nel tentativo di ritrovare alcuni suoi vecchi scritti, non è stato in grado di recuperarli attraverso Google.

Google perde la memoria o la abbandona?

Prima di pensare a un banale caso di incapacità, va detto che Bray è uno che sa il fatto suo: era già su Internet quando Google era agli albori e prima di esprimersi sulle pagine del suo blog ha fatto tutte le prove del caso, anche usando frasi esatte, ricerca per sito e così via.

Poteva farlo, perché era alla ricerca di suoi articoli di cui aveva il testo completo.

Sull’onda del lavoro di Bray, anche Marco Fioretti ha fatto una prova simile, con analoghi risultati. A questo punto le conferme iniziano a moltiplicarsi, e la notizia appare anche su altre fonti, per esempio boingboing.net.

Ma quindi Google non indicizza tutto il Web?

Per la verità, non lo ha mai fatto. Pensare che Google contenga tutte le pagine mai create è sempre stata una semplificazione. Sulla quale ci siamo adagiati tutti perché, fino a ora, nessuno si era mai posto il problema delle pagine datate. Nonostante il lavoro instancabile di realtà come The Internet Archive che senza troppo clamore tentano da anni di arginare questo fenomeno.

Insomma, finora nessuno si era mai accorto che il re era nudo

O forse, nessuno di autorevole si era preso la briga di andare a fondo. Ora appare chiaro che Google non ha alcun interesse nell’archiviare Internet di per sé, quanto nel fornire le risposte statisiticamente più commerciabili alle domande statisticamente più prevedibili. Insomma, a restituirci la parte vendibile del Web, trascurando tutto il resto.

Lo spiega perfettamente Tim Bray, con parole che provo a tradurre:

[Google] Si preoccupa di fornire buone risposte alle domande che contano per noi in questo momento. Se digito una domanda, anche qualcosa di complicato e oscuro, Google mi sorprende spesso con una risposta puntuale e precisa. Non hanno mai affermato di indicizzare ogni parola su ogni pagina.

Il mio modello mentale del Web è un archivio permanente e duraturo del patrimonio intellettuale dell’umanità. Perché questo sia utile, deve essere indicizzato, proprio come una biblioteca. Google apparentemente non condivide questo punto di vista.

Insomma. Google non è mai stato un archivio, (e per la verità non ha mai annunciato da nessuna parte di esserlo o volerlo essere).

Una scoperta che delinea il futuro di Google

Negli ultimi anni si fa un gran parlare della differenza fra motore di ricerca e motore di risposta. Google ha evidentemente una maggiore inclinazione per il secondo. Tuttavia questo secondo me è un problema, almeno per due motivi:

  • L’umanità non è culturalmente pronta a capire la differenza fra un macro-assistente virtuale che dà buone risposte e un reale sistema biblioteconomico in grado di raccogliere, e restituire, tutto lo scibile
  • al momento non esistono alternative al “qui e ora” voluto da Google. Anche se sembra che Bing e DuckDuckGo abbiano un approccio più sano nei confronti della memoria storica.

Certo, Esistono anche soluzioni specifiche per il Web “abbandonato”, come Archive.org e wiby.me, un motore di ricerca per “siti classici”. Ma manca la consapevolezza da parte degli utenti.

Chiedete a trenta persone che conoscete, ventinove vi risponderanno che su Google si trova tutto. E questo è un colossale problema.

Di fatto, lo scibile umano è in mano a un’azienda a fini di lucro

D’accordo, nella realtà non è propriamente così. Biblioteche e realtà virtuose come Archive esisteranno sempre. Ma quante sono, in percentuale, le persone che si accontentano dei risultati di Google e quante quelle che vanno oltre?

Parliamoci chiaro, chi si occupa di SEO lo sa più che bene: già essere fuori dalla prima pagina significa essere in una sorta di cimitero degli elefanti. Figuriamoci essere fuori da Google.

Il problema degli algoritmi si manifesta ancora una volta

Anche se ovviamente non c’è nessuna posizione ufficiale in materia, le ragioni di questa scelta sono ovvie: indicizzare le pagine web costa. E per un’azienda a fini di lucro, tutto quello che non è profittevole è dannoso. Fino qui nulla di sbagliato.

Ma cosa succederà se domani Google dovesse decidere di “tagliare” a cinque anni, o a sei mesi?

Sarebbe nel suo pieno diritto. Ma il patrimonio di conoscenza che potrebbe diventare irrecuperabile nel giro di pochi giorni potrebbe essere infinito. Poco importa se si tratta di fanfiction, meme sciocchi o opere d’arte. Rimane il problema che il lavoro di molti esseri umani potrebbe essere “oscurato” da una macchina nel giro di una notte.

Cosa possiamo fare per evitare di essere dimenticati da Google?

A lunghissimo termine, e con una visione piuttosto utopica, darci da fare per un Web in cui non esistano monopoli di fatto, al contrario di quello che succede ora. Favorire la frammentazione, la diffusione di standard, il diritto all’interscambio dei propri dati, la liquidità delle piattaforme. Evitando, per quanto possibile, i servizi che sappiamo adottare politiche poco trasparenti e in ogni caso quelli che detengono qualche tipo di monopolio.

L’utopia massima sarebbe un sistema in cui ciascuno possiede i propri dati in via esclusiva, e le diverse piattaforme li interrogano e li mettono in relazione in modo controllato. Ma rassegnamoci: è impossibile, anche dal punto di vista tecnico, almeno con la tecnologia di ora. Quantomeno è impossibile in una logica di scala.

A medio e breve termine, ricordarci e ricordare che Google non è il solo motore di ricerca: Bing e DuckDuckGo stanno iniziando a essere valide alternative, ma anche l’europeo Qwant. Usarli può essere impervio oggi, ma potrebbe essere il primo tassello per una Rete meno schiava degli algorimi. O per lo meno ridurre la dipendenza da un numero limitatissimo di algoritmi.

Insomma, l’umanità dovrebbe sforzarsi di non fare con la tecnologia l’errore che ha fatto svariati millenni fa quando si è lasciata addomesticare dal grano.

Ne parlerò meglio in futuro, ma oggi sta accadendo esattamente questo: invece di essere l’informatica ad adattarsi alle necessità dell’umanità, l’umanità si sta piegando alle nevrosi del digitale. Invece di creare motori di ricerca realmente efficaci, ci sforziamo di scrivere nel modo che i motori di ricerca possono comprendere.

Invece di usare l’intelligenza artificiale per un riconoscimento realmente efficace della scrittura a mano o della parola scritta, ci deformiamo le articolazioni sulle tastiere. invece di avere sistemi che ci permettono di aggregare le informazioni in modo semplice ed efficace, passiamo le ore a ingolfarci di informazioni inutili sui social media.

In qualche modo, sembra che l’unica cosa che ci importi è faticare il meno possibile, fisicamente e intellettualmente, quando l’essenza stessa dell’essere umano dovrebbe spingerci verso il contrario.

Ci ricordiamo tutti la fine che hanno fatto gli eloi, vero?

ilkappa.com è mobile friendly. Più o meno ;)

Google cambia tutto favorisce il mobile friendly

Come mi segnala il buon Pas attraverso la pagina Facebook di Studio Casaliggi, Google sta cambiando il suo algoritmo per favorire il mobile friendly. Non sarebbe una novità, se non fosse per la “rivoluzione mobile” che avverrà.

In pratica, da oggi Google inizierà a penalizzare tutti i siti che non rispondono ad alcuni criteri per essere mobile friendly, cioè leggibili anche sugli smartphone e, in generale, sugli schermi di piccole dimensioni. Questo cambiamento coinvolgerà le ricerche effettuate da mobile, che sempre secondo Google oggi sono il 60% e sono destinate a diventare più del 70% entro il 2020.

Se vi state chiedendo cosa centra tutto questo con il content marketing e la gestione dei contenuti, la risposta è piuttosto semplice: noi gestori di contenuti possiamo anche fare un buon lavoro, impegnarci per ottimizzare parole chiave e contenuti in genere, ma se la tecnologia del sito è obsoleta e non ci supporta, buona parte dei nostri sforzi è destinata a essere vana. Per cui, se non lo avete ancora fatto, è il momento di stare sotto ai webmaster per ottenere gli aggiornamenti mobile friendly.

A dirla tutta, i tecnici dovrebbero già esserne al corrente, visto che la notizia circola già da un paio di mesi… ma se i webmaster con cui lavorate di solito sono poco reattivi, ora non ci sono più scuse: gli scenari più pessimistici parlano di crolli verticali nella raggiungibilità attraverso le ricerche naturali, anche se è più credibile che il passaggio sarà piuttosto morbido.

Possiamo fare una verifica rapida usando lo strumento che Google mette a disposizione. (per la cronaca, questo sito è già mobile friendly… e non lo sapevo nemmeno, o quasi ;) )