Google Perde la memoria

Google ha smesso di indicizzare le pagine vecchie

Google sta perdendo la memoria. O non gli è mai interessato averla?

Una notizia circolata sotto traccia nelle settimane passate potrebbe invece avere implicazioni dirompenti nel futuro della Rete: Google ha smesso di indicizzare i siti più vecchi di dieci anni.

Emersa solo in pochi siti mainstream (e guarda caso in nessuno italiano), la scoperta è stata fatta da Tim Bray, uno dei blogger della prima ora. Che nel tentativo di ritrovare alcuni suoi vecchi scritti, non è stato in grado di recuperarli attraverso Google.

Google perde la memoria o la abbandona?

Prima di pensare a un banale caso di incapacità, va detto che Bray è uno che sa il fatto suo: era già su Internet quando Google era agli albori e prima di esprimersi sulle pagine del suo blog ha fatto tutte le prove del caso, anche usando frasi esatte, ricerca per sito e così via.

Poteva farlo, perché era alla ricerca di suoi articoli di cui aveva il testo completo.

Sull’onda del lavoro di Bray, anche Marco Fioretti ha fatto una prova simile, con analoghi risultati. A questo punto le conferme iniziano a moltiplicarsi, e la notizia appare anche su altre fonti, per esempio boingboing.net.

Ma quindi Google non indicizza tutto il Web?

Per la verità, non lo ha mai fatto. Pensare che Google contenga tutte le pagine mai create è sempre stata una semplificazione. Sulla quale ci siamo adagiati tutti perché, fino a ora, nessuno si era mai posto il problema delle pagine datate. Nonostante il lavoro instancabile di realtà come The Internet Archive che senza troppo clamore tentano da anni di arginare questo fenomeno.

Insomma, finora nessuno si era mai accorto che il re era nudo

O forse, nessuno di autorevole si era preso la briga di andare a fondo. Ora appare chiaro che Google non ha alcun interesse nell’archiviare Internet di per sé, quanto nel fornire le risposte statisiticamente più commerciabili alle domande statisticamente più prevedibili. Insomma, a restituirci la parte vendibile del Web, trascurando tutto il resto.

Lo spiega perfettamente Tim Bray, con parole che provo a tradurre:

[Google] Si preoccupa di fornire buone risposte alle domande che contano per noi in questo momento. Se digito una domanda, anche qualcosa di complicato e oscuro, Google mi sorprende spesso con una risposta puntuale e precisa. Non hanno mai affermato di indicizzare ogni parola su ogni pagina.

Il mio modello mentale del Web è un archivio permanente e duraturo del patrimonio intellettuale dell’umanità. Perché questo sia utile, deve essere indicizzato, proprio come una biblioteca. Google apparentemente non condivide questo punto di vista.

Insomma. Google non è mai stato un archivio, (e per la verità non ha mai annunciato da nessuna parte di esserlo o volerlo essere).

Una scoperta che delinea il futuro di Google

Negli ultimi anni si fa un gran parlare della differenza fra motore di ricerca e motore di risposta. Google ha evidentemente una maggiore inclinazione per il secondo. Tuttavia questo secondo me è un problema, almeno per due motivi:

  • L’umanità non è culturalmente pronta a capire la differenza fra un macro-assistente virtuale che dà buone risposte e un reale sistema biblioteconomico in grado di raccogliere, e restituire, tutto lo scibile
  • al momento non esistono alternative al “qui e ora” voluto da Google. Anche se sembra che Bing e DuckDuckGo abbiano un approccio più sano nei confronti della memoria storica.

Certo, Esistono anche soluzioni specifiche per il Web “abbandonato”, come Archive.org e wiby.me, un motore di ricerca per “siti classici”. Ma manca la consapevolezza da parte degli utenti.

Chiedete a trenta persone che conoscete, ventinove vi risponderanno che su Google si trova tutto. E questo è un colossale problema.

Di fatto, lo scibile umano è in mano a un’azienda a fini di lucro

D’accordo, nella realtà non è propriamente così. Biblioteche e realtà virtuose come Archive esisteranno sempre. Ma quante sono, in percentuale, le persone che si accontentano dei risultati di Google e quante quelle che vanno oltre?

Parliamoci chiaro, chi si occupa di SEO lo sa più che bene: già essere fuori dalla prima pagina significa essere in una sorta di cimitero degli elefanti. Figuriamoci essere fuori da Google.

Il problema degli algoritmi si manifesta ancora una volta

Anche se ovviamente non c’è nessuna posizione ufficiale in materia, le ragioni di questa scelta sono ovvie: indicizzare le pagine web costa. E per un’azienda a fini di lucro, tutto quello che non è profittevole è dannoso. Fino qui nulla di sbagliato.

Ma cosa succederà se domani Google dovesse decidere di “tagliare” a cinque anni, o a sei mesi?

Sarebbe nel suo pieno diritto. Ma il patrimonio di conoscenza che potrebbe diventare irrecuperabile nel giro di pochi giorni potrebbe essere infinito. Poco importa se si tratta di fanfiction, meme sciocchi o opere d’arte. Rimane il problema che il lavoro di molti esseri umani potrebbe essere “oscurato” da una macchina nel giro di una notte.

Cosa possiamo fare per evitare di essere dimenticati da Google?

A lunghissimo termine, e con una visione piuttosto utopica, darci da fare per un Web in cui non esistano monopoli di fatto, al contrario di quello che succede ora. Favorire la frammentazione, la diffusione di standard, il diritto all’interscambio dei propri dati, la liquidità delle piattaforme. Evitando, per quanto possibile, i servizi che sappiamo adottare politiche poco trasparenti e in ogni caso quelli che detengono qualche tipo di monopolio.

L’utopia massima sarebbe un sistema in cui ciascuno possiede i propri dati in via esclusiva, e le diverse piattaforme li interrogano e li mettono in relazione in modo controllato. Ma rassegnamoci: è impossibile, anche dal punto di vista tecnico, almeno con la tecnologia di ora. Quantomeno è impossibile in una logica di scala.

A medio e breve termine, ricordarci e ricordare che Google non è il solo motore di ricerca: Bing e DuckDuckGo stanno iniziando a essere valide alternative, ma anche l’europeo Qwant. Usarli può essere impervio oggi, ma potrebbe essere il primo tassello per una Rete meno schiava degli algorimi. O per lo meno ridurre la dipendenza da un numero limitatissimo di algoritmi.

Insomma, l’umanità dovrebbe sforzarsi di non fare con la tecnologia l’errore che ha fatto svariati millenni fa quando si è lasciata addomesticare dal grano.

Ne parlerò meglio in futuro, ma oggi sta accadendo esattamente questo: invece di essere l’informatica ad adattarsi alle necessità dell’umanità, l’umanità si sta piegando alle nevrosi del digitale. Invece di creare motori di ricerca realmente efficaci, ci sforziamo di scrivere nel modo che i motori di ricerca possono comprendere.

Invece di usare l’intelligenza artificiale per un riconoscimento realmente efficace della scrittura a mano o della parola scritta, ci deformiamo le articolazioni sulle tastiere. invece di avere sistemi che ci permettono di aggregare le informazioni in modo semplice ed efficace, passiamo le ore a ingolfarci di informazioni inutili sui social media.

In qualche modo, sembra che l’unica cosa che ci importi è faticare il meno possibile, fisicamente e intellettualmente, quando l’essenza stessa dell’essere umano dovrebbe spingerci verso il contrario.

Ci ricordiamo tutti la fine che hanno fatto gli eloi, vero?

Google mette l’interruttore a Skynet

Una notizia di qualche giorno fa ci raccontava di come Google Deepmind e molti altri nomi celebri del mondo dell’intelligenza artificiale stessero lavorando a una sorta di bottone rosso per le forme di intelligenza artificiale. Lo scopo, secondo le fonti più celebri, sarebbe quello di impedire alle intelligenze artificiali di perseverare in una sequenza di operazioni pericolose.

Voglio cedere al fascino per un minuto e pensare che Google, attraverso la divisione Deepmind, stia pensando a una sequenza di interruzione, se vogliamo un bottone rosso per spegnere tutto, o una safeword per quando le cose si fanno troppo estreme. E naturalmente tornano in mente Skynet che si procura da sola l’energia elettica, bombarda le superpotenze e conquista la Kamchatka, o le macchine di The Matrix e alla loro mania di giocare a farmville con gli esseri umani al posto dei pomodori.

the-terminator

Ci siamo capiti – via IndieWire

 

Niente bottone rosso, scienza a palate

Immaginare un tastone rosso sulla scrivania del supervisore di turno o del presidente degli Stati Uniti però è una semplificazione. Estrema. Immaginate di dover spiegare a un bambino di quattro anni come risolvere una equazione redox. Più o meno è il compito che è toccato ai divulgatori e giornalisti. Perché il documento originale è roba seria. E per roba seria, intendo di quella che ti fa tornare gli incubi degli esami di analisi, e subito dopo rimpiangere di non averla capita quando era ora.

Interruptibility.pdf

E non è nemmeno la più tosta – via Safely Interruptible Agents

Per fortuna, dopo 10 pagine in bilico fra piacere, dolore e schiaffi a mani aperte all’analfabetismo funzionale,  ci sono delle conclusioni, probabilmente scritte in un momento di pietà per gli esseri umani che i limiti li hanno visti solo nel compito in classe di quarta superiore. Qui capiamo che lo scopo di questo documento è quello di permettere agli operatori di interrompere in modo sicuro un processo di apprendimento e assicurarsi che l’agente, cioè l’intelligenza artificiale in fase di sviluppo non impari a prevenire queste interruzioni. Inoltre il documento ci lascia con un tema affascinante.

“Una importante prospettiva futura è di considerare interruzioni pianificate, dove l’agente è interrotto ogni notte alle 2 del mattino per un’ora, o avvisato in anticipo che avverrà un’interruzione in un momento preciso”

Ora, ditemi che solo io ho pensato a questo:

View post on imgur.com

Intelligenza artificiale – chi condiziona chi?

Se volessimo fare una lista di tutte le opere Sci-Fi (e non solo) in cui il dilemma etico sulla creazione e la “educazione” delle intelligenze artificiali è un tema portante, o addirittura fondamentale, potremmo stare qui intere settimane a discuterne. L’intelligenza artificiale ha preso, nell’immaginario collettivo, il posto del robot del secolo scorso. Quello che rimane invariato, ed è un tema ricorrente, è una forma di timore ancestrale, di rivalità nei confronti della “macchina” che ha ineluttabilmente una connotazione negativa, è sempre antagonista, nemica o quantomeno ambigua e pericolosa.

Pinocchenstein

Questa ve la spiego, giuro ;)

C’è chi fa risalire questo timore al primo grande shock tecnoculturale, la rivoluzione industriale. Io non sono completamente d’accordo. Ne abbiamo parlato a lungo quando con i fratelli Mercenari a Vapore  si tenevano conferenze sullo Steampunk. Da Prometeo a Icaro, passando per la stessa Torre di Babele, la mitologia e la tradizione non perdono occasione per sottolineare il rapporto controverso con il progresso, con l’Artefatto. Perché, in fondo, il processo di creazione che l’uomo può mettere in atto con le proprie mani è incompleto, inanimato. E qui potrei mettere in cantiere una lunghissima dissertazione che parte dalla differenza fra la Creazione che dona la vita e la creazione incompleta figlia dell’intelletto, passando per l’alchimia per approdare ai due fratelli più improbabili della letteratura, il mostro di Frankenstein e Pinocchio, ma andrei troppo lontano dal punto. Se vogliamo ridurla ai minimi termini, il nostro cervello non si è ancora fatto una ragione di non essere in grado, dopo millenni di studi, di fare quello che ai nostri lombi costa dieci minuti di fatica. E sappiamo che l’invidia della ragione genera mostri molto più pericolosi di quelli del sonno.

Chi ha paura dell’Intelligenza Artificiale?

Tutta questa enorme tirata, apparentemente senza capo né coda, per rispondere a due domande fondamentali, che in un certo modo sono due facce della stessa medaglia: Abbiamo davvero bisogno di un interruttore di emergenza? e soprattutto, Dobbiamo avere paura dell’intelligenza artificiale?

Sì e sì

Ma per ragioni diverse da quelle più dirette.

Perché, se ci piace tanto pensare che un giorno le macchine si ribelleranno, è soprattutto colpa della coscienza collettiva. Per ora, al massimo, un’intelligenza artificiale ci ha preso a male parole. Tay, L’esperimento di Microsoft chiuso in fretta e furia a marzo, in ventiquattro ore è sfuggita al controllo ed è diventata un’entità perversa, razzista e genocida. Per fortuna era solo un bot collegato a Twitter. Ma del resto, è stata abbandonata alla mercé di Internet “per imparare a interagire con gli umani in modo più umano”. Su un Social come Twitter. Più o meno come essere buttati da un elicottero fra ultrà e polizia fuori dallo stadio “per imparare la difesa personale”. Tanto che c’erano, potevano farle un account su Tumblr e iscriverla a 4chan, poveretta. E comunque, ci ha messo molto più di Ultron, che in due minuti di Internet aveva già deciso di sterminarci.

SVEEEEGLIAAA!!!1!!!1 STOCAZZO pareva brutto

VE LA DO IO LA “SVEGLIAAAAAA!!!1!!1!!!1111!”

Sto (nuovamente) divagando: il punto è che, mai come oggi, la realtà condiziona la finzione, e viceversa. Negli anni ’80 e ’90 avevamo le prime avvisaglie di un futuro in cui la tecnologia sarebbe passata da utilità a necessità, e poi a dipendenza. E le abbiamo riversate, come accade sempre, nelle opere di fantasia. Cito solo, ma l’elenco sarebbe eterno, Wargames: giochi di guerraTerminatorRobocopThe Matrix perché sono i primi che vengono in mente a tutti, ma allargando appena un po’ l’orizzonte nel tempo e nelle tematiche, includere tutto quello che va da HAL 9000 a Christine – La macchina infernale è fin troppo semplice.

Oggi, quel timore ancestrale che abbiamo riversato nell’immaginario, torna a galla, molto più forte di quello che possono averci lasciato Corto circuito o Weird Science, che comunque avevano i loro risvolti dark. E chi ha visto quei film e ha letto quei libri da ragazzo o bambino, oggi progetta software, hardware, interfacce. E come accade, per esempio, nel design delle auto, alcune delle quali somigliano sempre più a quelle di videogiochi e fumetti, anche in questo caso, la tautologia si chiude: l’immaginario, generato dalla realtà, origina opere di fantasia, che ineluttabilmente condizionano la realtà. Come se, nel corso delle generazioni, gli archetipi tornassero a loro stessi dopo essere stati distillati dalla coscienza collettiva dell’umanità.

Quindi, sì, dobbiamo temere l’intelligenza artificiale, o meglio, dobbiamo temere il pessimo uso che l’umanità in generale sa fare degli ottimi strumenti che costruisce. Ma questo è un aspetto marginale, e tutto sommato di facile risoluzione.
Il punto vero è: sì, abbiamo bisogno di un “pulsante di emergenza”. Per sentirci rassicurati e allontanarci dallo spettro di paure che appartengono al passato. In fondo, temiamo ancora il rancore degli dei contro Prometeo.

La Stampa e Google

Google, La Stampa e l’importanza dei contenuti

Google sta siglando una partnership con otto provider di contenuti europei. Ne parliamo diffusamente su MCCPost, ma come sempre qui mi ritaglio lo spazio per qualche riflessione più personale.

Prima di tutto, un po’ di sano campanilismo: che l’editore online scelto per l’Italia sia La Stampa di Torino, è senza dubbio una fonte di gioia per un piemontese, e una lezione per tutti: si può fare innovazione, ed eccellere, anche nel nostro “antiquato” Piemonte. Che poi, a ben guardare, fra scoperte vecchie e nuove, proprio tanto antiquato non è (pensiamo a Olivetti, per esempio, o all’aver portato in Italia la rivoluzione industriale, giusto ricollegarmi anche al mio amore per lo Steampunk).

Poi, una seconda considerazione: Google ha Google News, il più potente aggregatore di notizie che la storia ricordi, eppure decide di collaborare con i fornitori di contenuti. Naturalmente ci sono molte motivazioni, di natura diversa, dietro a questa scelta, fra cui quella di risanare una frattura storica fra editori, fornitori di contenuti e Google, accusato di “rubare” utenti proprio a causa di News (anche se chiunque abbia anche solo una vaga idea di come funzioni Internet sa quanto questa speculazione sia infondata). Tuttavia Google, probabilmente anche per calmare le acque, ha messo in pieno un piano che prevede proprio la collaborazione con alcuni dei suoi “potenziali nemici”, probabilmente quelli più propensi alla tecnologia, che probabilmente hanno accettato di buon grado.

Infine, l’ultima osservazione, che si lega maggiormente alla creazione di contenuti, quindi al content marketing, che vorrebbe essere una delle colonne personali di questo blog. Per la verità due, ma una è poco più di un inciso.

Da un lato abbiamo editori tradizionali che, davanti a un prodotto innovativo come Google News, si stracciano le vesti e fanno i capricci, gridando al furto, con schiere di flagellanti al seguito, spesso professionisti dell’informazione rimasti fermi, professionalmente, al 1980. Dall’altro abbiamo editori tradizionali, come La Stampa (che per inciso, è in giro dal 18-maledetto-97, quindi non è propriamente una startup) che colgono le opportunità, innovano e da giornale cittadino diventano parter europei di Google. Mettendo le mani su una fetta dei 150 milioni di euro nel processo. Indovinate a quale delle due fazioni sarà ancora in giro nel 2097…

Infine, l’ultima delle mie opinioni su questa storia: i contenuti di qualità vincono sempre. Certo, il caso dei quotidiani non riguarda propriamente il content marketing, ma il concetto è invariato. Google News sarebbe nulla senza partner che producono contenuti editoriali di qualità, e questi partner a loro volta sarebbero nulla senza contenuti.

Spesso, durante le mie lezioni di web marketing e content marketing porto come esempio provocatorio quello che amo chiamare il caso 4chan (magari ne parlerò diffusamente, prima o poi), per spiegare come il content marketing, in questo caso esasperato nella declinazione di user generated content nel campo dei meme e del trash, possa essere sufficiente da solo per trainare il successo di un sito. Oggi la storia è un po’ diversa da quando è nato il celebre sito, ma un concetto rimane invariato: avere contenuti di qualità significa conquistare raggiungibilità anche nel tempo, credibilità, offrire un servizio importante. Se vogliamo estremizzare, avere contenuti di vera qualità significa poter fare a meno dei trucchetti del SEO, dei vezzi della grafica esasperata e in un impeto di tautologia, direi anche del content marketing stesso.

Google crede nei contenuti. Se dobbiamo credere a Google Trends, anche il resto del mondo inizia a crederci.

Pensateci la prossima volta che dovete pianificare una strategia.

Logo di Bing

Bing cambia la partita del content marketing

Mentre tutto il mondo (me compreso) si preoccupava dei nuovi algoritmi di Google, negli USA altre notizie cambiano il mondo del content marketing. Secondo i dati divulgati settimana scorsa da ComScore e riportati da BGR via Search Engine Land infatti, Bing, il motore di ricerca di Microsoft, ha raggiunto la ragguardevole quota di mercato del 20%. In altre parole, un quinto delle ricerche negli Stati Uniti è fatta con il motore di ricerca Made in Microsoft, che di sicuro ha tratto giovamento dalla recente partnership con Yahoo!.

Volendo fare un po’ di sano onanismo statistico, secondo i dati riportati Google ha circa il 64% del mercato, Bing il 20 e Yahoo!, che usa gli strumenti di Bing, quasi il 13%. Questo significa che Bing controlla circa la metà delle ricerche rispetto a Google, e quasi un terzo del totale. Questo almeno stando ai dati di ComScore. Secondo altre fonti, per esempio un articolo di Forbes di gennaio, la cosa non è così significativa, perché è dovuta anche in parte al cambio di motore di ricerca predefinito nel browser Firefox in seguito a nuovi accordi. C’è da dire che l’articolo non è così recente, e anche dopo questa data i numeri di Bing hanno continuato a crescere. L’altro dato che i “conservatori” contestano è che si riferisce solo alle ricerche desktop, mentre sappiamo che questi numeri cambiano se includiamo il mercato mobile.

Il punto è: come queste notizie, o opinioni, possono influenzare il content marketing?

La risposta è semplice: negare che oggi nella creazione di contenuti di qualità rientrino anche i parametri del SEO significherebbe nascondere la testa sotto la sabbia. Passiamo nel campo delle opinioni: la mia convinzione, semplificando fino ai minimi termini, è che le discipline SEO siano poco più di un trick. In fondo si tratta di un reverse engeneering, basato su dati anche piuttosto aleatori, il cui scopo ultimo è interagire meglio con un meccanismo il cui funzionamento è ignoto. Il che significa più o meno cercare di capire come funziona un computer percuotendolo con un femore.

Gli zeloti del SEO lavorano sul nuovo algoritmo di Google

Si, lo so. La realtà è più complessa e qualche base analitica c’è. Ma il mondo delle scienze esatte, come la meccanica o la fisica tradizionale, è un’altra cosa. Allora il punto è questo: se cambia il mercato, anche le regole del SEO, e quindi in parte quelle del content marketing, devono cambiare. Perché già ottimizzare i soli testi per un singolo motore di ricerca è impervio, e ottimizzare tutti i contenuti per più motori è molto, molto più complesso. Certo, i dati sono riferiti solo agli Stati Uniti, solo alle ricerche desktop, e così via. Ma la storia ci insegna che sottovalutare questi segnali non è mai una buona scelta. E, fatte le dovute proporzioni, già oggi ignorare il peso di Bing nella progettazione e gestione dei contenuti significa giocarsi una discreta fetta di mercato.

La soluzione? Prima di tutto, la mia opinione: basare tutto sul solo SEO è, con buona pace degli zeloti di cui sopra, una scelta miope. La transizione verso un content marketing più strutturato è già iniziata. Oggi essere bravi a combinare le parole nell’ordine che piace a Google non basta più.

Bisogna pensare anche a Bing e Yahoo!.

Allora, perché non semplificare le cose e tornare a pensare agli esseri umani? La creazione di contenuti di qualità attraverso un content marketing intelligente è una delle possibili risposte.

E, peraltro, funziona perfettamente da sempre.

 

 

ilkappa.com è mobile friendly. Più o meno ;)

Google cambia tutto favorisce il mobile friendly

Come mi segnala il buon Pas attraverso la pagina Facebook di Studio Casaliggi, Google sta cambiando il suo algoritmo per favorire il mobile friendly. Non sarebbe una novità, se non fosse per la “rivoluzione mobile” che avverrà.

In pratica, da oggi Google inizierà a penalizzare tutti i siti che non rispondono ad alcuni criteri per essere mobile friendly, cioè leggibili anche sugli smartphone e, in generale, sugli schermi di piccole dimensioni. Questo cambiamento coinvolgerà le ricerche effettuate da mobile, che sempre secondo Google oggi sono il 60% e sono destinate a diventare più del 70% entro il 2020.

Se vi state chiedendo cosa centra tutto questo con il content marketing e la gestione dei contenuti, la risposta è piuttosto semplice: noi gestori di contenuti possiamo anche fare un buon lavoro, impegnarci per ottimizzare parole chiave e contenuti in genere, ma se la tecnologia del sito è obsoleta e non ci supporta, buona parte dei nostri sforzi è destinata a essere vana. Per cui, se non lo avete ancora fatto, è il momento di stare sotto ai webmaster per ottenere gli aggiornamenti mobile friendly.

A dirla tutta, i tecnici dovrebbero già esserne al corrente, visto che la notizia circola già da un paio di mesi… ma se i webmaster con cui lavorate di solito sono poco reattivi, ora non ci sono più scuse: gli scenari più pessimistici parlano di crolli verticali nella raggiungibilità attraverso le ricerche naturali, anche se è più credibile che il passaggio sarà piuttosto morbido.

Possiamo fare una verifica rapida usando lo strumento che Google mette a disposizione. (per la cronaca, questo sito è già mobile friendly… e non lo sapevo nemmeno, o quasi ;) )