Non prendiamocela col coltello

6 ottobre 2021

[email protected]

Il coltello è uno strumento. Ci possiamo affettare un salame, tagliarci un dito o uccidere una persona. Conoscendo il coltello, ed è facile farlo, possiamo scongiurare i rischi e massimizzare i benefici. In entrambi i casi i risultati sono lasciati all’utilizzatore e alla libertà di uso che gli viene concessa.

La tecnologia dell’informazione (IT) è uno strumento come il coltello; né più né meno. Alla sua stessa stregua può causare danni o produrre benefici ma anche qui in dipendenza dell’uso che se ne fa. Mentre per godere dei benefici è necessaria un’attenta e approfondita conoscenza dello strumento, subire i danni è il risultato, a partire da tale conoscenza, di una precisa volontà di infliggerli. Oppure di una irresponsabile e colpevole ignoranza. Ma sempre relativa agli utilizzatori, non agli strumenti i quali, come già detto, sono solo abilitatori dell’uno o dell’altro effetto. Non esistono coltelli volanti che uccidono di loro iniziativa le persone, così come non esistono algoritmi o software che obnubilano di loro iniziativa le menti della gente.

Dunque è la conoscenza degli strumenti che fa la differenza tra il loro uso corretto o meno. Tale conoscenza ci si aspetta che venga diffusa anche dalla stampa. Purtroppo questa, almeno una sua parte, vive anche di “notizie” ovvero quella informazione improbabile che spinge il lettore (sinonimo di “cliente” per l’industria dei media) a leggere quanto scritto. Un cane che morde un uomo può essere un’informazione ma non una notizia, un uomo che morde un cane fa certamente notizia. 

 

 

…un foglio di calcolo NON “decide” un bel niente…

Veniamo però adesso a due casi concreti che sottolineano la dimensione del fenomeno, e il tradimento della fiducia del lettore interessato anche all’informazione, e non solo alla notizia.

L’Internazionale numero 1426 dello scorso 10 settembre contiene un articolo tradotto dal prestigioso Financial Times dal titolo La tirannia dei fogli di calcolo (titolo originale The tyranny of spreadsheets).  In esso l’autore parte da un fatto di cronaca accaduto nel Regno Unito: la scomparsa di quasi sedicimila casi di persone positive al covid-19 dal sistema di tracciamento dei contatti. Queste persone sarebbero dovute essere avvertite dai tracciatori per informarle di essere infette e capire chi avevano incontrato e chi altro poteva essere a rischio. La prima conclusione a cui giunge il giornalista, cito le sue parole, è la seguente:

“Perché quei casi erano svaniti? A quanto pareva, Microsoft Excel aveva finito i numeri.”

Cioè ci troviamo, secondo lui, nel caso del coltello “volante di sua iniziativa” citato prima. Un analisi più approfondita porta però alla scoperta del mistero:

“In qualche punto del flusso dei dati, qualcuno alla Phe (Public Health England, l’ente preposto alla raccolta e tracciamento dati epidemiologici) deve aver usato il formato di Excel sbagliato: xls al posto di xlsx, che è più recente. I fogli di calcolo xls hanno semplicemente meno righe…”

Quindi un uso scorretto dello strumento da parte di un utilizzatore, non una iniziativa dello strumento. Ma, ancor prima, un uso di uno strumento inadeguato allo scopo. Excel è un tool di “produttività personale”, non di condivisione dati, per lo più così importanti. Vi sono milioni di avvertenze e casi catastrofici di perdite di dati imputabili ad Excel perché, molto semplicemente, queste attività NON vanno eseguite con un foglio di calcolo.

Il giornalista prosegue nelle sue argomentazioni citando studi fatti sui fogli di calcolo di Enron, l’azienda energetica statunitense fallita nel 2001. Una ricercatrice li ha studiati  e ha notato che un quarto di essi conteneva almeno un errore.

“Ma com’è possibile che un foglio di calcolo accumuli tanti errori?”

Ancora una volta l’attribuzione di una volontà allo strumento!
Per cercare di spiegarlo, propone alcuni esempi:

“digitando in Excel un numero di telefono con prefisso internazionale, il programma elemina automaticamente gli zeri iniziali, che sono superflui in un numero intero ma non in un numero di telefono. Se invece digitiamo un numero di serie composto da venti cifre, Excel deciderà che quelle venti cifre sono una quantità enorme, e le arrotonderà trasformando le ultime in zeri.”

Affettando il salame con il coltello, può capitare che affettiamo anche il nostro dito. Se ciò avviene non è perché il coltello “ha deciso” che anche il dito è di carne come il salame, e quindi va affettato, ma perché abbiamo messo il dito nel posto sbagliato e usato il coltello senza accortezza.

Analogamente Excel NON decide un bel niente. Quando viene digitato una cifra lo prende per default, ovvero in difetto di ulteriori informazioni, come numero e non come testo, come è di fatto un numero di telefono o di serie. Basta dare il formato giusto alle celle o aggiungere all’inizio della digitazione il simbolo apice (‘) che verrà trattato nel modo corretto. Tutto qui.

Chi non conosce i fogli di calcolo e legge questo articolo, cosa capirà sull’uso di Excel e prodotti similari?

Il secondo caso pur condividendo la stessa leggerezza di ciò di cui parla, è ancora più grave perché tocca una tecnologia potenzialmente più pervasiva e più produttiva, o dannosa se non compresa: la così detta Intelligenza Artificiale.

L’articolo in questione è apparso sul sito de Ilsole24ore il 30 settembre col titolo “L’intelligenza collettiva? Possiamo salvaguardarla da quella artificiale?”. Nell’articolo si dibatte del confronto tra l’intelligenza collettiva, non meglio definita ma che si poteva avvantaggiare delle tecnologie dell’informazione per “amplificare la generazione e la condivisione di conoscenze nelle comunità umane”, e quella artificiale, dove le comunità sono “un insieme di consumatori di conoscenze generate nelle viscere degli automi da inattingibili algoritmi”. L’autore poi aggiunge:

“…l’intelligenza artificiale è il pensiero privato e algebrico delle macchine.”

 

 

La ricerca della conoscenza non si nutre di certezze: si nutre di una radicale assenza di certezze.

L’autore ben sa, vista la sua formazione accademica disponibile in rete, che gli algoritmi NON generano nulla e men che meno sono capaci di pensiero. Al massimo contengono criteri di scelta, non modificabili dagli stessi algoritmi, imposti dai loro creatori. Ciò che ne risulta è una Comunicazione Artificiale che dà l’impressione di una Intelligenza, come ben illustra la sociologa Elena Esposito in un suo brillante lavoro.

Tutto ciò che troviamo in rete e sui social media non è creato da inattingibili algoritmi, ma da noi stessi. Gli algoritmi si limitano a verificare quanto di questi contenuti sia stato cliccato da altri, portarlo all’attenzione di tutti e, così facendo, farlo diventare informazione rilevante sui quali ci esprimiamo alimentando di nuovo un circolo virtuoso, per quanto riguarda la nostra permanenza attenta sulla rete a beneficio degli “editori” (i social media), e vizioso, dal punto di vista della dialettica che si appiattisce sulle “notizie” (l’uomo che morde il cane) e non sulle informazioni, a discapito di una dialettica libera. A ciò si aggiunge il fatto che se l’aggressione dell’uomo alla povera bestia, anche se non vera,  attira attenzione, gli algoritmi, proprio per mancanza di discernimento, la metteranno comunque in evidenza, alimentando così il fenomeno delle fake news. Ancora una volta il colpevole, inconsapevole o meno, è chi ha ‘postato’ la notizia, la foto o il video.

Da qui poi l’autore prosegue citando esperimenti e tecnologie per generare conoscenze. Da Gpt-3 “titanica rete neurale costruita in Silicon Valley” che “ha mostrato una straordinaria abilità nel generare testi plausibili sulla base di brevi spunti forniti dagli utenti”, anche se poi viene precisato che “sia apparso subito chiaro che Gpt-3 in realtà non capisce quello che dice” (ma allora come si fa a parlare di Intelligenza?), al “robo-giornalista del Washington Post” che “ lo scorso anno ha scritto 850 articoli” (anche qui specificando che “Si tratta per lo più di articoli sportivi molto stereotipati”). Ancora una dimostrazione di come tali tecnologie siano un amplificatore di conoscenze umane, funzione utilissima, che però non vanno scambiate per la capacità di generarle.

La creatività umana nasce da dubbi e incertezze. Come il fisico Carlo Rovelli ricorda molto bene nel suo Helgoland:

“… uno dei grandi errori che fanno gli esseri umani quando tentano di capire qualcosa sia volere certezze. La ricerca della conoscenza non si nutre di certezze: si nutre di una radicale assenza di certezze. Grazie all’acuta consapevolezza della nostra ignoranza, siamo aperti al dubbio e possiamo imparare sempre meglio. … Non c’è un cardine, un punto fisso finale, filosofico o metodologico, a cui ancorare l’avventura del conoscere.”

Sappiamo molto bene che queste macchine non possono funzionare senza certezze o facendo errori, ingredienti fondamentali per generare reale e profonda conoscenza. Inoltre hanno necessità, per essere utili, di arrivare ad un punto fisso finale, quell’Halt che Alan Turing dimostrò che una macchina, sempre quella che conosciamo oggi, non è in grado nemmeno di determinare.   Di conseguenza non potranno mai generare conoscenza come noi la intendiamo. Possono distribuire ed evidenziare quella con la quale le alimentiamo, il che non è poco, ma guai a scambiarla per tutta la conoscenza possibile. Sarebbe come pretendere che il mondo consiste solo di ciò che riflette uno specchio, il quale restituisce esclusivamente quello che gli si mette davanti, che è sempre una porzione molto limitata.

Temo che errori e incomprensioni simili si generino anche in altri ambiti, quali le biotecnologie o i temi ambientali. Vi è bisogno allora, a mio modestissimo avviso, di un cambio di paradigma nel fornire informazioni sulle tecnologie, a partire da una maggiore comprensione dei principi fondamentali sulle quali sono basate, passaggio fondamentale per riconoscere la qualità e le intenzioni delle fonti. Inoltre, anche grazie a tale comprensione, c’è la necessità di rinunciare al comodo sensazionalismo, utile per generare interesse e lettori (come le fake news!)  che può però alimentare speranze o paure senza fondamento alcuno.

E per favore, concentriamo sugli utilizzatori delle tecnologie, veri responsabili primi di disastri e successi, e smettiamola di prendercela con i coltelli attribuendo loro una consapevolezza che non hanno mai avuto (e forse non avranno mai). 

Luciano Martinoli