Oh! Data Oh!

Nel 2014 ho frequentato un MOOC (Massive Open Online Courses: corsi online liberi a cui tutti possono iscriversi) sul Data-Driven Journalism organizzato da European Journalism Centre. Il titolo era “Doing Journalism With Data: First Steps, Skills and Tools”. L’argomento mi interessava parecchio, perché comunicare pericoli e rischi naturali passa senza ombra di dubbio dai dati e quindi saper comunicare i dati è una competenza ineludibile. Il giornalismo con la sua lunga tradizione di mediatore, più o meno efficace, poteva darmi spunti interessanti per capire come costruire una migliore comunicazione del rischio e in emergenza.
Il corso non era una passeggiata, temevo i moduli più tecnici e statistici. Ma all’Università avevo fatto, e passato brillantemente, due esami di statistica e pensai che avrei potuto seguire il corso senza grosse difficoltà. Fortunatamente le competenze statistiche richieste erano quelle di base, si trattava pur sempre di un corso introduttivo.
Terminato il corso e superato l’esame mi dissi che il Data Journalism era sicuramente un ambito interessante, ma probabilmente le mie competenze in tema di elaborazione dati non erano tali da farne una professione. Alcuni direbbero che era il mio sabotatore interno a parlare. Altri, me compresa, direbbero che forse si trattò di un eccesso di onestà intellettuale. Sta di fatto che registrai nelle mie sinapsi questa disciplina emergente come informazione utile alla quale far ricorso in caso di un progetto interessante.

In realtà ciò che aveva destato il mio interesse era la rappresentazione visiva dei dati (e delle informazioni) e mi sarebbe piaciuto molto lavorare in un team data driven, ad esempio per definire standard di bollettini meteo climatici leggibili e “comunicativi”.  Avevo compreso che la data visualization avesse bisogno di competenze multiple e quindi anche di team multidisciplinari, oppure di persone con un talento leonardesco, categoria dal sapore vagamente mitologico.
Bisogna conoscere i dati, saperne valutare la validità scientifica, bisogna saperli elaborare, creando magari indici e indicatori sensati, bisogna individuare la rappresentazione migliore ed essere in grado di realizzarla, sia che sia statica o interattiva. Insomma un lavorone. Ma perché attribuisco grande importanza alla data visualization?

La santa battaglia sugli open data dice: apriamo i dati (le banche dati), rendiamoli liberamente accessibili a tutti con il solo l’obbligo di citare la fonte. Bene. Ma anche no, dopotutto. Chi non è d’accordo nel rendere i dati accessibili a tutti sostiene che potrebbero anche essere “usati” male, ovvero mal interpretati e costruire, per dirla alla Houellebecq, “meravigliose menzogne” legittimate da dati scientificamente validi. Fatto, diciamolo sinceramente, non del tutto improbabile.

Ricordo anni fa, nel corso di un alluvione, un volonteroso esperto Gis aveva pubblicato una mappa del rischio idrogeologico che però usava i dati della pericolosità. Differenza non di lana caprina, ma seriamente sostanziale perché il rischio idrogeologico è “il prodotto tra la probabilità di occorrenza (pericolosità) di un evento idrogeologico avverso e i danni ambientali potenziali associati a tale evento su popolazione e infrastrutture (esposizione).” Bastava guardare su Wikipedia.
Senza negare il fatto che avere i dati aperti sia comunque un vantaggio, bisogna anche saperli “usare”, avere le competenze per leggerli e sapere cosa significhino.
Ma l’esempio delle mappe di rischio “sbagliate” ci insegna qualcosa d’altro:  quelle mappe infatti furono riprese da giornali online e social, ebbero quindi un loro successo, perché comunicavano meglio di tanti altri articoli o di documenti in pdf o peggio di dati grezzi. Meravigliose menzogne per l’appunto, ma che dimostrano una verità: avere i dati senza che siano organizzati, interpretati e visualizzati in un forma comprensibile è come non averli.
E’ qui che gli open data dimostrano di essere uno strumento di élite e non il modo di risolvere i problemi di trasparenza dell’informazione. Diciamolo senza girarci intorno e senza ipocrisia: se voglio capire meglio un fenomeno, che magari mi tocca personalmente, dopo otto ore di lavoro, la spesa e aver preparato la cena, mi devo mettere a cercare i dati, sempre che sappia cosa e dove cercarli e che infine riesca a trovarli, per poi scaricarli ed elaborarli? E’ uno scherzo vero?

Gli Open Data sono un atto sacrosanto di trasparenza e democrazia. Non si mette in discussione. Ma perché diventino informazione devo porgerli e comunicarli in modo che, se non tutti visto l’ignoranza dilagante, almeno una parte di persone possano comprenderli.  Perché i dati sono noiosi e non dicono nulla se non sono elaborati, spiegati e rappresentati. Quindi abbiamo bisogno di “mediatori” che ci guidino nella nebbia dei dati. Di dati ne abbiamo moltissimi e per questo chi fa data journalism o data visualization ha un compito cruciale per la spiegazione e la conseguente comprensione di fenomeni e eventi.

Poi è arrivato il Covid-19. Di dati abbiamo parlato per due anni. Ma quali dati?
Tra gli errori di comunicazione, quello che ricade nella sfera “comunicazione dei dati” è tra quelli che più mi hanno irritato.
Il rituale delle 18:00 per lungo tempo ci ha fornito i dati giornalieri dei contagi. Nulla da dire. In una conferenza stampa bisogna fare quello. Con il tempo questi appuntamenti, nonostante l’atmosfera di una campana con i rintocchi a morto, sono anche migliorati, hanno cominciato a parlare gli esperti e le domande un po’ chiarivano alcuni dei dubbi che noi, chiusi in casa,  non ci facevamo mancare. Ma la fame di informazione, argine all’incertezza del momento, non veniva soddisfatta. Negli estemporanei gruppi d’ascolto del bollettino delle 18 i commenti si sprecavano e avremmo voluto capire quanti fossero i sintomatici o pauci-sintomatici (parola aggiunta al nostro povero vocabolario medico) in ogni regione, quanti tra i decessi fossero per il Covid o a causa di altre co-morbidità (altra parola nuova), la letalità o la mortalità, l’incidenza sulla popolazione. Ora ci si chiederebbe quanti sono i vaccinati e con quante dosi ad essere ricoverati o in terapia intensiva e così via. Insomma un po’ di analisi dei dati.
Ed è qui che i tanti discorsi e le belle parole sul data journalism sono risultati vuoti. Perché i giornali nazionali italiani hanno dato prova di non sapere cosa fosse il data journalism, nonostante ne avessero parlato un po’ negli anni prima della pandemia. Con un’unica eccezione “Il Sole 24 ore” che con il team di Lab24 ha messo online una pagina sempre aggiornata cercando di dare una visione complessiva sui dati della pandemia. Certo con il tempo la pagina ha peccato di barocchismi e mappe interattive che personalmente ritengo abbiano tolto immediatezza e reso la navigazione più difficoltosa. Comunque è l’esempio migliore insieme al tabellone senza fronzoli di Worldometers che rimane il mio preferito.
Ora il data journalism durante il Covid non è, come ho sentito dire nell’ennesima tediosa trasmissione televisiva da un giornalista di un quotidiano nazionale, “aver imparato cosa siano le medie ponderate”, forse quelle doveva conoscerle già da prima. La tristezza è che rispondeva ad alcune affermazioni del professore Roberto Battiston, che stimo molto e che nel suo sito ha sempre pubblicato elaborazioni utilissime e chiare, come l’andamento dell’Rt. Elaborazioni e non medie ponderate.

Ora, non voglio entrare nel dettaglio enumerando chi ha fatto bene (pochi) e chi non ha fatto bene o non ha fatto nulla; sarebbe un esercizio sterile e poco edificante, come sa esserlo la polemica. Vorrei però dire cosa mi sarei aspettata.
Innanzitutto avrei governato meglio il processo di raccolta dati, stabilendo standard e criteri uguali per tutte le regioni. Avrei creato un sito web istituzionale nazionale dedicato ai dati con elaborazioni intelligenti e valide. Non mi basta il report dell’ISS o il bollettino o gli open data, perché anche per quello ci vuole un mediatore che traduca in linguaggio comprensibile. Non mi basta dover andare a cercare elaborazioni, fatte anche egregiamente, disperse nell’oceano del web.  Non mi basta che ogni regione faccia le sue elaborazioni, dimostrando che l’autonomia regionale è se non dannosa, poco utile. No, non è questo di cui abbiamo bisogno. Avrei invece chiamato data analysts e data visualization designers per dare un servizio pubblico nazionale puntuale, completo e chiaro. E’ comunicazione anche questa non solo quella fatta nelle conferenze stampa o quella mediata dai rappresentanti degli organi di stampa. Una voce unica e autorevole anche se espressione di istituzioni in crisi, o proprio per rispondere con unità e serietà ad un momento di crisi. Nessuno ci ha pensato?

Dai giornalisti mi sarei aspettata un po’ di umiltà e coerenza: moderando i titoli, evitando di generare ansia, controllando che nelle home page dei quotidiani non ci fossero articoli con titoli opposti, scegliendo di non generare ossessioni infodemiche che avranno bisogno di costose cure psicologiche. E anche per i quotidiani nazionali avrei fatto scouting creando un team che facesse data journalism seriamente. In qualità di mediatori nel processo di comunicazione avrebbero dovuto dare informazioni frutto di elaborazioni un po’ più sofisticate della “media ponderata” o dei valori assoluti o di percentuali da prima media. E’ chiedere tanto? Ma i giornalisti non hanno fatto nessun debrief dopo questi due anni e le rare critiche le hanno schivate senza alcuna grazia.

Allora quando la pandemia sarà finita e sentirò parlare il guru del momento di data journalism e data visualization, volgerò il mio sguardo altrove perché non si può competere con le meravigliose menzogne.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.