La pandemia, la cultura del dato e la qualità dell’informazione

Un mio post sulla cultura del dato che ha generato una interessante discussione: lo riporto anche qui

Quello che sto facendo è inusuale e per certi versi è l’esatto contrario delle buone pratiche della comunicazione: sto riportando sul mio blog un testo che era nato prima su Facebook. Ma alcuni mi hanno fatto notare come fosse davvero rilevante sotto molti aspetti, per cui ho deciso di fare il proverbiale strappo alla regola.

Lo riporto nella sua formattazione integrale, senza aggiungere nulla. In fondo all’articolo i link al post originale e all’articolo che lo ha generato.

Post lungo, faticoso e di dubbia utilità (almeno vi ho avvisati 😉 )

Se c’è una cosa che dovrebbe essere chiara a chiunque sia giunto alla maggiore età è che la complessità della realtà non permette di tracciare linee di confine nette.

Anche nel caso di problemi nazionali come la pandemia. Questo articolo di ADN fa una cosa utile e intelligente, pertanto poco frequentata anche da giornali e agenzie che sulla carta dovrebbero essere autorevoli: mette a confronto le opinioni di una serie di esperti in merito alla pandemia e al lockdown. E lo scenario che ne esce, ovviamente, è complesso.

Perché anche fra gli esperti veri, quelli con lauree, specializzazioni e decenni di lavoro, ci sono opinioni contrastanti. Si lo so, a inizio anno mi ero ripromesso di parlare più di tecnologia e meno di fesserie inutili come la politica, infatti ora ci arrivo. Perché questo articolo permette diverse riflessioni.

Prima di tutto, la comunicazione: purtroppo non è ancora prassi, ma c’è da sperare che lo diventi a breve, il fatto di “blindare” chiunque abbia un incarico al fatto di non parlare se non in modo concordato. In questo anno le dichiarazioni dei vari membri del Cts, immunologi, professori vari hanno spesso fatto più danni che conforto. D’accordo la libera circolazione dell’informazione, ma questa si fa rendendo pubblici i dati sotto forma di open data, non invitando l’ennesimo professore affamato di visibilità a un talk show televisivo. La realtà non è riducibile a uno strillo fra un conduttore scemo e la pubblicità delle merendine. In questi casi la comunicazione dovrebbe essere contingentata e gestita da qualcuno di capace.

Secondo: i social. Ormai dovrebbe essere chiaro che un articolo come quello che sto incollando non circolerà mai sui social. Perché non è “viralizzabile”: non ha un titolo al limite del clickbait, non ci sfrucuglia la pancia.

La lezione qui è semplice: l’informazione vera e utile non si trova sui social, la cui genesi è il cazzeggio e il cui uso per altri scopi è contro natura. Il mio consiglio? Riscopriamo l’uso della Home Page, dei Preferiti e di strumenti fighissimi per l’aggregaziione di contenuti come Feedly o Inoreader. Io uso quest’ultimo e non potrei più vivere senza.

Sulla tecnologia, ecco la mia osservazione. Se vogliamo fare un’analisi un po’ più a freddo, il vero problema di questa pandemia è che la stiamo gestendo esattamente come tutte le pandemie precedenti, con provvedimenti “a sensazione”. Quello che è aberrante è che oggi avremmo tutti gli strumenti per farci aiutare dalla tecnologia. Come? Cito le prime cose che mi vengono in mente, lasciando perdere i miglioramenti pratici di quello che già esiste.

Open Data e la cultura del dato: ancora oggi in Italia manca completamente. Basta vedere la fatica che devono fare le diverse dashboard per allinearsi con le informazioni fornite UNA VOLTA AL GIORNO dalla protezione civile. Questo perché abbiamo ancora la concezione (sbagliatissima) che i dati debbano essere supervisionati prima di essere “inviati”, mentre la tendenza nei settori produttivi, dove il tempo è denaro e non ci si può permettere overhead, è quella di raccogliere i dati in forma diretta e farli “supervisionare” da sistemi di analisi statistica evoluti. Insomma, potremmo riversare i raw data in tempo reale ed elaborarli successivamente, dando però a tutti la possibilità di lavorarli in tempi molto più brevi. Questo ci porta al secondo punto.

Lentezza di elaborazione: in un mondo in cui riusciamo a prevedere il percorso dei tifoni è INCONCEPIBILE che l’elaborazione dei dati sulla pandemia abbia uno sfasamento temporale di 15 giorni. A cui se ne aggiungono altri per le decisioni. Questo ci condanna a chiudere sistematicamente il recinto dopo che i buoi sono scappati. Con l’aggravante che, anche se non sono un esperto, mi sembra che le decisioni siano presi su dataset corposi ma non complessi, e con modelli tutto sommato semplici. E non riesco a pensare che con le risorse di uno stato non si possa avere abbastanza potenza di calcolo per abbattere i tempi di risposta. Infatti penso che il problema non sia l’elaborazione, ma la lentezza con cui il sistema italiano fatto di responsabili, funzionari, supervisori e fogli di calcolo sbagliati dopo nove passaggi di controllo fornisce i dati. Ancora una volta, il problema è gestionale. Che senso ha che ogni regione, provincia, feudo elabori i dati autonomamente: facciamo in modo che vengano fornite direttamente le letture dai macchinari, e che sia un sistema centralizzato a restituire le elaborazioni, come avviene nell’industria e come un qualunque analista vero suggerirebbe di fare in contesto di big data. (che nel nostro caso in realtà non sono big data ma “a lot of small data”).

Modelli previsionali: magari sbaglio, ma è possibile che al mondo ci sia abbastanza potenza di calcolo per fare i deepfake di Trump che suona l’ukulele su una tavola da surf ma non esista un modello matematico su cui testare l’efficacia dei provvedimenti prima di dare aria alla bocca? Ora, ovviamente non è semplice e non è una cosa che uno può fare con Excel o con un’istanzina di Tensorflow sul PC di casa. Ma è anche vero che qualche risorsa in campo per questa pandemia la si è messa, ma ancora una volta, probabilmente, la scarsa cultura dei dati ci ha impedito di vederne il potenziale.

Di nuovo, si pone il problema del ribaltamento: abolendo i passaggi intermedi e inserendo direttamente le letture strumentali in una base dati centrale, si ottimizzerebbero le risorse per l’elaborazione, si avrebbe un’analisi più tempestiva, si potrebbero fornire dei veri Open Data e costerebbe anche meno, visto che i dati non passerebbero dalle mani di una lunghissima serie di burocrati che non solo allungano drammaticamente i tempi di elaborazione, ma sbagliano pure (La Lombardia è il caso più eclatante). E i denari risparmiati potrebbero essere rilocati per mettere in piedi un sistema di analisi e previsione credibile, che impedisca ai vari esperti di “collaudare” le soluzioni sulla pelle di una nazione, con gli effetti che abbiamo visto finora.

Finito. Ma vi avevo avvisati 🙂

Per chi vuole approfondire o partecipare alla discussione

https://www.adnkronos.com/lockdown-totale-in-italia-cosa-dicono-gli-esperti_4hhyvlzdBRJ9KBQMmsmJ6W?fbclid=IwAR3tO5JCqJpG-aSAeNLDBznWoUiMjPmFwKFkK-VzpMVp7opqycj0f1Ulq7c

Rispondi