mercoledì 1 novembre 2017

Digital hygiene: basic rules of prevention

By Isabella Corradini and Enrico Nardelli


Digital hygiene, a weird title. If taken literally, it would imply cleaning our digital instruments. Maybe we should talk about it, as mobile phones, smartphones and tablets are now part of the human body and we take them everywhere, since we both need them and are addicted to them (worthless to deny it), and their cleaning is not always treated with the same attention we use for ourselves.

Actually, we are talking about hygiene in the traditional sense. Hygiene rules have been taught since our childhood and they are one of the prevention measures that have most contributed over the last two centuries to lengthen the average life span. But in the digital world it is not so usual to hear these words. People sometimes use the expression digital hygiene to refer to how they relate to others in social networks or how not to become slaves of their own devices, but that’s not our interpretation.

In our view, this expression has instead to be used in a way similar to what happens in the physical world, where hygiene norms are appropriate for preventing illness. Here, the discovery by Hungarian physician Ignaz Semmelweis was crucial in the mid-nineteenth century, and thousands of women’s lives were saved. He observed that, washing his hands after an autopsy and before assisting women in labour, the frequency of their mortality was enormously reduced. Hence, washing one’s own hands became the fundamental ritual before starting surgical operations. This didn’t happen overnight, though, since it took a few decades – as is sometimes the case – for this discovery to be accepted and spread.

By extension, it became one of the basic tenets taught to all children: “Wash your hands ” is still the rule before going to the table and, more generally, whenever one comes home. The fundamental motivation is that “out there” there is a world that can be hostile because of microbes and infections, and it’s important to take countermeasures.

While in the physical case this message is widely accepted and socially shared, unfortunately the digital version of the same prevention message is less immediate. For example, how many people are still inserting unknown USB sticks or opening unknown attachments on their devices (PCs, tablets, or smartphones) without being aware that they can be infected?

The analogy is entirely true: the digital world is populated by “life forms” that are not always benign towards our “digital self”. Viruses and worms, for example, continue to spread at an alarming rate, and current precautions do not seem to be sufficiently effective.

A partial justification is that the evolution of these digital organisms has proceeded at an elusive speed for humans. For traditional physical hygiene rules the present generation has benefitted from their parents’ education, while for digital hygiene we have not yet developed the adequate “sensors”.

Of course, digital hygiene rules can be annoying, and even limit our range. Some people would say that they are obvious and it is pointless to repeat them. Not so, since there are still people who insert pen drives into their computers without thinking.

Terminology used in the digital context does not help to understand the importance of these rules. In fact, using words like “virtual” or prefixes like “cyber” drives people away from a real perception of physical dangers, so they think that digital hygiene standards are irrelevant.

Probably the best way to make people understand, accept and apply the digital hygiene rules is to establish a connection to the analogous hygiene rule in the physical world. People could thus better understand that what happens in their PCs and their mobile devices is not virtual but real, as its consequences are.

People’s awareness could just start from here.



Article published on BroadBand4Europe, October 18, 2017

venerdì 20 ottobre 2017

Dal coding a Borges

di Enrico Nardelli

In questa ripresa autunnale delle attività del mondo dell’istruzione si va diffondendo, dalla scuola all’università, il concetto che il coding (cioè la programmazione informatica) sia il nuovo inglese.

Ha iniziato la Bocconi, imponendo a tutti gli studenti della triennale l’esame di programmazione. Ho stigmatizzato più di tre anni fa la sciatteria linguistica dell’usare un termine inglese al posto dell’equivalente italiano. Non sono stato né il primo né l’ultimo, ma ci tengo a ribadire che usare la nostra lingua significa sostenere la nostra identità sociale e culturale. E le identità sono importanti per rispettare le differenze. La biologia e la fisica da milioni di anni ci insegnano che solo dalla differenziazione nasce la ricchezza dei sistemi.

Diversi giornali hanno ripreso e rilanciato questo concetto, comunicativamente molto semplice, ma concettualmente del tutto sbagliato, ed hanno invocato l’introduzione del coding anche nelle scuole. Spiegherò in modo sintetico perché questa formulazione sia errata.

Poiché la programmazione informatica consiste nel dare istruzioni ad un computer, può sembrare che imparare un linguaggio di programmazione sia la stessa cosa dell’imparare una nuova lingua. Così come con circa un miliardo di persone che parlano cinese o inglese ha senso imparare una di queste lingue, così con diversi miliardi di oggetti tecnologici al mondo che sono computer sembra utile imparare “la lingua dei computer”.

Il problema è che la lingua è solo lo strumento mediante il quale viene espresso il pensiero. Non essendo un linguista, non discuto se l’ipotesi di Sapir-Worf (la lingua parlata condiziona il sistema cognitivo del parlante) sia vera o meno. Ma è ben chiaro a tutti che non è tanto il sapere l’inglese che determina il successo di un imprenditore o di un professionista, quanto le sue competenze e abilità nel suo specifico campo.

Non basta quindi conoscere un linguaggio di programmazione per capire e comprendere il mondo digitale. È illusorio e sbagliato pensarlo. Così come un’espressione linguistica è solo una rappresentazione del pensiero, così un programma informatico è solo la forma mediante cui rendiamo concreto il “modo di pensare di un informatico”, cioè il pensiero computazionale.

Ciò che quindi dovrebbe essere insegnato, nelle scuole ancor prima che nelle università, è la disciplina che favorisce lo sviluppo di questo modo di pensare, cioè l’informatica. Questo è necessario per comprendere le basi scientifiche del mondo digitale, per sapersi orientare nella società odierna in modo più informato e competente.

Però il lettore fedele, o quello critico che si pone la domanda «ma vediamo un po’ che ha scritto il Nardelli su questo tema» e fa un po’ di ricerca, potrebbero obiettare: «scusa, ma tu stesso hai parlato del Pensiero computazionale come nuovo linguaggio per la descrizione del mondo e di Informatica: il nuovo latino che tutti amano». Non sono linguaggi?

Purtroppo la comunicazione umana è terreno estremamente scivoloso. Un’espressione può essere in certi casi uno scalpello che incide esattamente il profilo voluto, ma in altri casi può assumere significati estremamente diversi. Quest’ultimo può essere un vantaggio che permette di ottenere un vasto consenso, ma si trasforma in debolezza quando si tratta di assumere basi condivise e concordare azioni comuni. Il mondo della conoscenza scientifica utilizza un linguaggio matematico proprio perché è l’unico che apporta solo benefici, senza danni. Nella comunicazione tra persone non c’è alternativa alla discussione serena ed argomentata.

In quei precedenti articoli ho usato il termine “linguaggio” nel significato con cui spesso si usa il termine “matematica” per denotare un “linguaggio” in grado di descrivere con assoluta esattezza quantità e relazioni. Per usare termini un po’ filosofici, ho usato “linguaggio” come sinonimo di “paradigma epistemologico”. Detto in parole povere, come sinonimo di “chiave per la lettura della realtà”. Quindi dicendo che “il pensiero computazionale fornisce un nuovo linguaggio per la descrizione del mondo” sto dicendo che mediante di esso è possibile descrivere alcuni fenomeni “come se” fossero delle computazioni. Non è detto che lo siano effettivamente, ma attraverso l’informatica si hanno nuovi e utili modi per analizzare e spiegare la realtà. Un esempio lampante è la descrizione dei processi biologici a livello molecolare: il meccanismo di replicazione del DNA può anche essere visto “come se” fosse una computazione, e questo ha offerto enormi vantaggi per la sua comprensione. Anche in economia e in sociologia si trovano esempi dell’utilità dell’approccio informatico.

Ritorno sull’importanza di insegnare già nella scuola “come pensa un informatico” con un esempio preso dalla matematica. Nelle elementari insegniamo “a far di conto” non tanto perché il fine sia imparare 3x2=6 o 12:4=3, cioè la tavola pitagorica, quanto perché è importante che il bambino capisca che se 3 bambine hanno 2 caramelle ciascuna il numero totale di caramelle si ottiene con la moltiplicazione, mentre se 12 biscotti devono essere distribuiti a 4 bambine il numero di biscotti per bambina si ottiene con la divisione. Non stiamo quindi tanto insegnando uno strumento operativo, quanto una chiave di comprensione della realtà (“il pensiero matematico”).

E perché andrebbe insegnata nella scuola? potrebbero chiedere altri lettori, osservando che bambine e bambini sono ormai tutti nativi digitali che già parlano “la lingua dei computer”. Ho già spiegato che non si tratta di insegnare un linguaggio ma un modo di pensare.

Inoltre, come aveva già evidenziato Giorgio Israel, l’espressione “nativi digitali” indica semplicemente coloro che sono nati in una società digitale. Estendere tale denotazione a suggerire una loro capacità di comprensione “innata” di tale mondo è una delle insidie della comunicazione di cui dobbiamo essere avvertiti. Soprattutto se parliamo della maggioranza della popolazione scolastica e non ci facciamo abbagliare dalle eccezioni che sono quelle che più facilmente trovano spazio sui mass media.

I ragazzi, grazie anche alla maggiore quantità di tempo a disposizione rispetto agli adulti e ad una curiosità ancora vivissima, spesso riescono con questi dispositivi a sorprenderci. Però, la comprensione che hanno di una tecnologia più complessa di qualunque altra costruita dall’uomo è solo apparente, in assenza di un’adeguata istruzione. Chiedete nelle scuole la differenza tra Google (il motore di ricerca) ed Internet e vedrete. Per carità, gli esseri umani sono così intelligenti che possono usare il mondo intorno a loro anche senza una spiegazione razionale completa di come funziona, ma in questo caso non si tratta di un “libro della natura” difficile da leggere, ma di un’infrastruttura tecnologica estremamente complessa, costruita da persone per le persone, in cui l’alternativa è tra creare il proprio futuro o farselo imporre.

A questo si aggiunge la difficoltà, per precise scelte di mercato dei produttori dei dispositivi informatici moderni, di “mettere le mani in pasta” per “vedere che accade se”. Nei decenni successivi alla seconda guerra mondiale, il tessuto produttivo del Paese è stato riscostruito anche grazie al fatto che una gioventù intraprendente poteva smontare, studiare e rimontare macchinari, per riprodurli e migliorarli. Tutto questo è impossibile con le soluzioni “chiavi in mano” degli strumenti smart di oggi ed è uno dei motivi per i quali, invece soluzioni “aperte” sia a livello hardware (tipo Arduino) che software (tipo Linux) dovrebbero essere lo standard assoluto per la scuola.

Concludo osservando che non è solo la complessità della tecnologia che sfugge ai cosiddetti “nativi digitali” e non può essere conseguita da un semplice corso di coding. Il “pensare come un informatico”, cioè il possedere quegli strumenti intellettuali che rimangono dopo aver studiato informatica, è necessario per capire che l’automazione produttiva derivante dall’informatica (la cosiddetta “impresa digitale”) è radicalmente diversa dalla tradizionale automazione industriale.

Quest’ultima è stata essenzialmente la sostituzione dell’azione fisica delle persone con la forza delle macchine, sotto la guida delle facoltà cognitive delle persone. L’automazione digitale è la sostituzione dell’intelligenza umana con una macchina: si tratta di un drammatico cambiamento di paradigma che la società contemporanea non ha ancora pienamente assorbito e compreso. Una delle capacità essenziali dell’intelligenza umana è l’adattabilità ai cambiamenti dell’ambiente, la flessibilità nel gestire esigenze nuove o modificate. Le persone hanno una capacità innata di evolversi per fronteggiare l’evoluzione e di imparare dagli errori. I sistemi informatici non ce l’hanno.

Riprendendo una metafora introdotta da Umberto Eco, i sistemi informatici sono come quel “Funes el memorioso” descritto da Jorge Luis Borges, che era in grado di ricordare e correlare ogni più minimo dettaglio della sua esistenza ma quasi incapace di idee generali, di pensare. In un mondo in cui non è più necessario ricordare, perché ogni informazione è facilmente reperibile, in cui la manipolazione di simboli può essere ripetuta a velocità fantastica ed a costi irrisori, la capacità di porsi le giuste domande e di trovare soluzioni innovative è ciò che farà la differenza. L’informatica (la scienza, non la tecnologia) è una (non l’unica) palestra potente. L’istruzione umanistica è un’altra.

Senza esaltare né demonizzare l’uso delle tecnologie digitali in classe, scenario complesso da affrontare con un approccio critico-problematico, è bene ricordare che vi sono evidenze scientifiche che la disponibilità di strumenti che ci consentono di essere sempre connessi disturba le capacità cognitive (il cosiddetto effetto brain drain). Non è un caso che in quella Silicon Valley le cui invenzioni hanno reso il futuro presente, da molti anni ormai i figli della classe dirigente studiano in scuole senza smartphone né tablet ma con libri di carta e laboratori.


-----
Versione originale pubblicata su "Il Fatto Quotidiano" il 17 ottobre 2017.

sabato 15 luglio 2017

Quanto ne sanno i consumatori di intelligenza artificiale?

di Isabella Corradini

Non c’è dubbio che il tema dell’Intelligenza Artificiale (IA) sia oggetto di grande interesse e di numerosi dibattiti. Le sue potenzialità sono di particolare attrattività per il mondo aziendale in quanto potrebbero rivoluzionare il modo di erogare i servizi alla clientela, e non solo. Ma cosa ne pensano i consumatori?

Nell’ambito di uno studio globale condotto su 6.000 soggetti adulti da Pegasystems, società operante nell’ambito delle soluzioni di Customer Engagement, è emerso un quadro interessante. In particolare, prevale un sentimento di “confusione” nell’interagire con l’IA. Ad esempio, solo il 34% del campione ha dichiarato di averne avuto esperienza diretta, per poi scoprire che in realtà fa già uso nel quotidiano di diversi dispositivi e servizi basati sull’Intelligenza Artificiale.
In questo modo la percentuale sale all’84%. In generale, comunque, dallo studio





emerge, allo stato attuale, una scarsa consapevolezza dei consumatori su cosa sia effettivamente l’Intelligenza Artificiale e sulle sue funzionalità. Se ne parla molto, ma un conto è parlarne da esperti, un conto è spiegare l’IA agli utenti, non sempre padroni del linguaggio tecnologico.

Si tratta di un punto basilare, dal quale può dipendere il comportamento di diffidenza o di apertura verso l’Intelligenza Artificiale. Da un lato, infatti, più del 70% del campione intervistato nutre un certo timore nei confronti dell’AI, dall’altro invece, il 68% dichiara la disponibilità a sperimentarne di più, se ciò dovesse facilitare la vita di tutti i giorni, ad esempio facendo risparmiare tempo e denaro. Diventa dunque indispensabile informare correttamente i consumatori sul tema; e magari dovrebbero essere proprio le imprese a farlo, sia per il fatto che stanno investendo molto in questo campo, sia perché la diffusione di prodotti e servizi è comunque legata al senso di fiducia dei consumatori.

A questo punto, però, sarebbe opportuno attivarsi per una maggiore chiarezza non solo riguardo ai vantaggi dell’IA, ma anche ai possibili rischi. Insomma, far conoscere la reale portata del cambiamento permetterebbe alle persone di decidere, e questa volta con consapevolezza.

Pubblicato su Bancaforte l'8 giugno 2017.

lunedì 29 maggio 2017

La "grande bellezza" dell'informatica

di Enrico Nardelli

Tutta la scienza è basata su astrazioni: spiegare fenomeni mediante modelli che li descrivono. Quando un fisico scrive l’equazione che rappresenta il moto di un corpo, o un chimico la reazione che spiega la formazione di una sostanza, o un biologo descrive il processo di sviluppo di un organismo, stanno tutti costruendo un modello, cioè una rappresentazione della realtà.

Stanno quindi usando l’astrazione: il concentrarsi su ciò che è essenziale per il punto di vista assunto ed è comune a tutti gli specifici esempi descritti dal modello stesso.

Così, sotto certe condizioni che vanno specificate chiaramente, dal momento che le astrazioni non sono sempre valide nel 100% dei possibili scenari, per il fisico non è determinante la materia di cui sono fatti i corpi che si muovono, o per il chimico il colore delle sostanze che reagiscono o per il biologo la nazione in cui si trova l’organismo che si sviluppa.

Generalmente l’astrazione viene formulata in un linguaggio matematico, dal momento che tale disciplina è necessaria ovunque servano precisione e rigore. Un ragionamento scientifico deve necessariamente rientrare nei canoni logici di coerenza e consequenzialità, pena la sua uscita da questo paradigma della conoscenza.

Anche l’informatica usa estesamente l’astrazione, ma in questo suo utilizzo si distingue per una caratteristica che essa sola possiede e che ne costituisce, a mio parere, la ragione che spiega la sua “grande bellezza”. Le astrazioni dell’informatica sono eseguibili in modo meccanico. Vuol dire che possono essere animate, cioè si può “dar loro vita e vedere che accade” senza dover ogni volta costruire una nuova rappresentazione fisica dell’astrazione stessa. Anche nelle altre discipline si può dar vita alle astrazioni mediante oggetti fisici che esprimono i fenomeni modellati, sostanziandone così la loro espressione logico-matematica. Ma per ogni modello va realizzato ad hoc un insieme di oggetti.

Nell’informatica, grazie alla sua astrazione fondamentale, il cui termine tecnico è “Macchina Universale di Turing” (MUT), abbiamo un unico meccanismo unico mediante il quale, sempre allo stesso modo, qualunque modello può essere “meccanicamente” (cioè in modo del tutto automatico) “eseguito” (cioè reso vivo), senza necessità di ulteriore intervento umano. I PC, gli smartphone e i tablet di cui siamo circondati non sono nient’altro che realizzazioni tecnologicamente molto sofisticate della MUT.

Descrivendo questa unicità dell’informatica non intendo ovviamente sostenere che sia più importante o possa sostituire altre discipline scientifiche. Chi si avventura su questa strada apre polemiche infantili e sterili. Voglio solo ribadire la necessità che l’informatica sia insegnata nella scuola, come in altri paesi stanno facendo. Perché offre un nuovo, complementare ed utile punto di vista per la descrizione dei fenomeni naturali ed artificiali.

In Italia usiamo a questo scopo il termine “pensiero computazionale”, suscitando a volte reazioni più emotive che razionali. Ma l’espressione, come ho spesso discusso, è solo un modo di far capire che stiamo parlando dell’informatica come scienza, delle sue idee, princìpi, concetti, metodi ed approcci e non di sistemi, tecnologie e strumenti. In altri paesi questa necessità non c’è, perché si può parlare di “computer science” e di “information technology”. In Italia entrambe sono “informatica”.

Il pensiero computazionale è la capacità, acquisita da chi ha studiato e praticato l’informatica, di riconoscere gli aspetti computazionali dei fenomeni naturali ed artificiali. Vuol dire descrivere alcuni aspetti di questi fenomeni “come se” fossero delle computazioni. Non è detto che lo siano effettivamente, ma in ogni caso offrono nuovi e utili modi per analizzare e spiegare la realtà. Un esempio lampante è la descrizione dei processi biologici a livello molecolare: il meccanismo di replicazione del DNA può anche essere visto “come se” fosse una computazione, e questo ha offerto enormi vantaggi per la sua comprensione. Anche in economia e in sociologia si trovano esempi dell’utilità di questo approccio.

La realtà, dunque, può essere descritta in diversi modi e l’approccio informatico, grazie alla sua capacità di coglierne la sfaccettatura computazionale, certamente è uno di questi.



-----
Versione originale pubblicata su "Il Fatto Quotidiano" il 27 maggio 2017.

lunedì 15 maggio 2017

Chi ha paura del pensiero computazionale? (un anno dopo)

di Enrico Nardelli

A distanza di oltre un anno dal precedente articolo “Chi ha paura del pensiero computazionale?” continuo ad incontrare sulla rete espressioni immotivatamente critiche a proposito di questo termine: «Il pensiero computazionale non esiste» oppure «… è una truffa concettuale» o in alternativa «… è una truffa pedagogica e didattica». Altre posizioni lo descrivono come «… passione pedagogica fondata sul nulla» o, se vogliono concedere qualcosa, come «… piccola e preesistente frazione del pensiero scientifico e tecnologico».

È evidente, leggendo più in dettaglio le critiche, che alcune di queste derivano da opinioni politiche in disaccordo con l’attuale gestione della scuola. Idee del tutto lecite, ma che sviluppandosi su un piano politico non tratto in questa sede.

Qui invece analizzo le considerazioni sull’adeguatezza scientifica e/o didattica del termine “pensiero computazionale”. In genere osservo sempre, come ho fatto su questa rubrica e su questa e su questa, che esso ha il solo scopo di far capire che si parla degli aspetti scientifici e culturali dell’informatica, indipendenti dalla tecnologia. Esso quindi fa riferimento alle idee, ai concetti ed ai princìpi dell’informatica e non a sistemi, tecnologie e strumenti. L’obiettivo strategico per cui viene usato in Italia è arrivare a far sì che nella scuola si insegni l’informatica. Non ovviamente quella delle varie patenti di guida o degli applicativi o di specifici linguaggi di programmazione, ma quella che tutto il mondo riconosce come disciplina scientifica autonoma. Ecco una trattazione più estesa di questo punto. In altri paesi questa necessità non c’è, perché si può parlare di “computer science ” e di “information technology ”. In Italia entrambe sono “informatica ”.

Chiedo sempre a chi è in disaccordo di esplicitare in modo esteso e argomentato posizioni di critica non tanto a ciò che scrivo io, perché non si tratta di una questione personale, ma a quello che hanno scritto prestigiose società scientifiche internazionali. Invito quindi a discutere direttamente il cuore del problema, cioè la necessità dell’insegnamento nelle scuole dell’informatica, sostenuta in questi rapporti: The Royal Society, Shut down or restart? The way forward for computing in UK schools (2012) e Académie des Science, L’enseignement de l’informatique en France. Il est urgent de ne plus attendre (2013), anche in inglese.

Ad oggi non ho letto una critica di questi rapporti fondata su di un’analisi approfondita e motivata.

Tornando alle critiche sopra citate, esse sono generalmente basate sulla tecnica dell’ “argomento fantoccio ” (“straw man ” in inglese). Viene cioè criticata non la definizione generalmente accettata di pensiero computazionale (cioè la modalità di pensiero che ha acquisito ed usa per descrivere e spiegare i fenomeni chi ha studiato e praticato l'informatica come disciplina scientifica) ma una propria definizione scelta ad hoc (p.es: «… come pensano i computer»).

Ribadisco che questa non è una mia definizione ma quella usata da eminenti scienziati nei rapporti sopra citati e in altri documenti ancora. Dal momento che gli informatici esistono, il loro specifico punto di vista sul mondo e il loro particolare modo di pensare esistono. Quindi ritengo esagerato e scorretto dire che “il pensiero computazionale non esiste”.

Certamente vi sono perplessità sulla mancanza di una chiara attività di indirizzo su come insegnare informatica nella scuola. I miei colleghi ed io esercitiamo un'azione di stimolo in questa direzione, ma la situazione è ancora in divenire.

Criticare inoltre – come taluni fanno – l’affermazione che il pensiero computazionale abbia una sua posizione di preminenza rispetto ad altre modalità di lettura della realtà è nuovamente usare un argomento fantoccio. L’attività di pensiero assume differenti modalità o sfumature a seconda della formazione della persona. I modi di pensare e di riflettere sul mondo di un letterato, di un musicista, di un fisico, di un biologo, etc., sono tutti ugualmente validi, diversi l'uno dall'altro e complementari. Contribuiscono tutti alla comprensione del mondo.

Il pensiero computazionale, cioè il modo di descrivere la realtà che hanno gli informatici, apporta qualcosa di nuovo e diverso da quello delle altre discipline scientifiche? Sì, come illustrato dagli scienziati nei rapporti sopra citati. Esso è una nuova, distinta ed utile variante del pensiero scientifico e tecnologico, non certo un piccolo sottoinsieme preesistente.

Va insegnato nella scuola come tale? No, va insegnata a scuola la disciplina che lo sviluppa, cioè l'informatica. È quello che si fa negli USA, in UK e in Francia.

Possiamo confrontarci su come farlo, invece che discutere sulle definizioni?

-----
Pubblicato su "Il Fatto Quotidiano" il 3 maggio 2017.