lunedì 29 maggio 2017

La "grande bellezza" dell'informatica

di Enrico Nardelli

Tutta la scienza è basata su astrazioni: spiegare fenomeni mediante modelli che li descrivono. Quando un fisico scrive l’equazione che rappresenta il moto di un corpo, o un chimico la reazione che spiega la formazione di una sostanza, o un biologo descrive il processo di sviluppo di un organismo, stanno tutti costruendo un modello, cioè una rappresentazione della realtà.

Stanno quindi usando l’astrazione: il concentrarsi su ciò che è essenziale per il punto di vista assunto ed è comune a tutti gli specifici esempi descritti dal modello stesso.

Così, sotto certe condizioni che vanno specificate chiaramente, dal momento che le astrazioni non sono sempre valide nel 100% dei possibili scenari, per il fisico non è determinante la materia di cui sono fatti i corpi che si muovono, o per il chimico il colore delle sostanze che reagiscono o per il biologo la nazione in cui si trova l’organismo che si sviluppa.

Generalmente l’astrazione viene formulata in un linguaggio matematico, dal momento che tale disciplina è necessaria ovunque servano precisione e rigore. Un ragionamento scientifico deve necessariamente rientrare nei canoni logici di coerenza e consequenzialità, pena la sua uscita da questo paradigma della conoscenza.

Anche l’informatica usa estesamente l’astrazione, ma in questo suo utilizzo si distingue per una caratteristica che essa sola possiede e che ne costituisce, a mio parere, la ragione che spiega la sua “grande bellezza”. Le astrazioni dell’informatica sono eseguibili in modo meccanico. Vuol dire che possono essere animate, cioè si può “dar loro vita e vedere che accade” senza dover ogni volta costruire una nuova rappresentazione fisica dell’astrazione stessa. Anche nelle altre discipline si può dar vita alle astrazioni mediante oggetti fisici che esprimono i fenomeni modellati, sostanziandone così la loro espressione logico-matematica. Ma per ogni modello va realizzato ad hoc un insieme di oggetti.

Nell’informatica, grazie alla sua astrazione fondamentale, il cui termine tecnico è “Macchina Universale di Turing” (MUT), abbiamo un unico meccanismo unico mediante il quale, sempre allo stesso modo, qualunque modello può essere “meccanicamente” (cioè in modo del tutto automatico) “eseguito” (cioè reso vivo), senza necessità di ulteriore intervento umano. I PC, gli smartphone e i tablet di cui siamo circondati non sono nient’altro che realizzazioni tecnologicamente molto sofisticate della MUT.

Descrivendo questa unicità dell’informatica non intendo ovviamente sostenere che sia più importante o possa sostituire altre discipline scientifiche. Chi si avventura su questa strada apre polemiche infantili e sterili. Voglio solo ribadire la necessità che l’informatica sia insegnata nella scuola, come in altri paesi stanno facendo. Perché offre un nuovo, complementare ed utile punto di vista per la descrizione dei fenomeni naturali ed artificiali.

In Italia usiamo a questo scopo il termine “pensiero computazionale”, suscitando a volte reazioni più emotive che razionali. Ma l’espressione, come ho spesso discusso, è solo un modo di far capire che stiamo parlando dell’informatica come scienza, delle sue idee, princìpi, concetti, metodi ed approcci e non di sistemi, tecnologie e strumenti. In altri paesi questa necessità non c’è, perché si può parlare di “computer science” e di “information technology”. In Italia entrambe sono “informatica”.

Il pensiero computazionale è la capacità, acquisita da chi ha studiato e praticato l’informatica, di riconoscere gli aspetti computazionali dei fenomeni naturali ed artificiali. Vuol dire descrivere alcuni aspetti di questi fenomeni “come se” fossero delle computazioni. Non è detto che lo siano effettivamente, ma in ogni caso offrono nuovi e utili modi per analizzare e spiegare la realtà. Un esempio lampante è la descrizione dei processi biologici a livello molecolare: il meccanismo di replicazione del DNA può anche essere visto “come se” fosse una computazione, e questo ha offerto enormi vantaggi per la sua comprensione. Anche in economia e in sociologia si trovano esempi dell’utilità di questo approccio.

La realtà, dunque, può essere descritta in diversi modi e l’approccio informatico, grazie alla sua capacità di coglierne la sfaccettatura computazionale, certamente è uno di questi.



-----
Versione originale pubblicata su "Il Fatto Quotidiano" il 27 maggio 2017.

lunedì 15 maggio 2017

Chi ha paura del pensiero computazionale? (un anno dopo)

di Enrico Nardelli

A distanza di oltre un anno dal precedente articolo “Chi ha paura del pensiero computazionale?” continuo ad incontrare sulla rete espressioni immotivatamente critiche a proposito di questo termine: «Il pensiero computazionale non esiste» oppure «… è una truffa concettuale» o in alternativa «… è una truffa pedagogica e didattica». Altre posizioni lo descrivono come «… passione pedagogica fondata sul nulla» o, se vogliono concedere qualcosa, come «… piccola e preesistente frazione del pensiero scientifico e tecnologico».

È evidente, leggendo più in dettaglio le critiche, che alcune di queste derivano da opinioni politiche in disaccordo con l’attuale gestione della scuola. Idee del tutto lecite, ma che sviluppandosi su un piano politico non tratto in questa sede.

Qui invece analizzo le considerazioni sull’adeguatezza scientifica e/o didattica del termine “pensiero computazionale”. In genere osservo sempre, come ho fatto su questa rubrica e su questa e su questa, che esso ha il solo scopo di far capire che si parla degli aspetti scientifici e culturali dell’informatica, indipendenti dalla tecnologia. Esso quindi fa riferimento alle idee, ai concetti ed ai princìpi dell’informatica e non a sistemi, tecnologie e strumenti. L’obiettivo strategico per cui viene usato in Italia è arrivare a far sì che nella scuola si insegni l’informatica. Non ovviamente quella delle varie patenti di guida o degli applicativi o di specifici linguaggi di programmazione, ma quella che tutto il mondo riconosce come disciplina scientifica autonoma. Ecco una trattazione più estesa di questo punto. In altri paesi questa necessità non c’è, perché si può parlare di “computer science ” e di “information technology ”. In Italia entrambe sono “informatica ”.

Chiedo sempre a chi è in disaccordo di esplicitare in modo esteso e argomentato posizioni di critica non tanto a ciò che scrivo io, perché non si tratta di una questione personale, ma a quello che hanno scritto prestigiose società scientifiche internazionali. Invito quindi a discutere direttamente il cuore del problema, cioè la necessità dell’insegnamento nelle scuole dell’informatica, sostenuta in questi rapporti: The Royal Society, Shut down or restart? The way forward for computing in UK schools (2012) e Académie des Science, L’enseignement de l’informatique en France. Il est urgent de ne plus attendre (2013), anche in inglese.

Ad oggi non ho letto una critica di questi rapporti fondata su di un’analisi approfondita e motivata.

Tornando alle critiche sopra citate, esse sono generalmente basate sulla tecnica dell’ “argomento fantoccio ” (“straw man ” in inglese). Viene cioè criticata non la definizione generalmente accettata di pensiero computazionale (cioè la modalità di pensiero che ha acquisito ed usa per descrivere e spiegare i fenomeni chi ha studiato e praticato l'informatica come disciplina scientifica) ma una propria definizione scelta ad hoc (p.es: «… come pensano i computer»).

Ribadisco che questa non è una mia definizione ma quella usata da eminenti scienziati nei rapporti sopra citati e in altri documenti ancora. Dal momento che gli informatici esistono, il loro specifico punto di vista sul mondo e il loro particolare modo di pensare esistono. Quindi ritengo esagerato e scorretto dire che “il pensiero computazionale non esiste”.

Certamente vi sono perplessità sulla mancanza di una chiara attività di indirizzo su come insegnare informatica nella scuola. I miei colleghi ed io esercitiamo un'azione di stimolo in questa direzione, ma la situazione è ancora in divenire.

Criticare inoltre – come taluni fanno – l’affermazione che il pensiero computazionale abbia una sua posizione di preminenza rispetto ad altre modalità di lettura della realtà è nuovamente usare un argomento fantoccio. L’attività di pensiero assume differenti modalità o sfumature a seconda della formazione della persona. I modi di pensare e di riflettere sul mondo di un letterato, di un musicista, di un fisico, di un biologo, etc., sono tutti ugualmente validi, diversi l'uno dall'altro e complementari. Contribuiscono tutti alla comprensione del mondo.

Il pensiero computazionale, cioè il modo di descrivere la realtà che hanno gli informatici, apporta qualcosa di nuovo e diverso da quello delle altre discipline scientifiche? Sì, come illustrato dagli scienziati nei rapporti sopra citati. Esso è una nuova, distinta ed utile variante del pensiero scientifico e tecnologico, non certo un piccolo sottoinsieme preesistente.

Va insegnato nella scuola come tale? No, va insegnata a scuola la disciplina che lo sviluppa, cioè l'informatica. È quello che si fa negli USA, in UK e in Francia.

Possiamo confrontarci su come farlo, invece che discutere sulle definizioni?

-----
Pubblicato su "Il Fatto Quotidiano" il 3 maggio 2017.

mercoledì 26 aprile 2017

Igiene digitale, norme base di prevenzione

di Isabella Corradini e Enrico Nardelli

Un titolo eccentrico, quello di questo articolo. Farebbe pensare alla pulizia degli strumenti digitali. Forse anche di questo bisognerebbe parlare, visto che cellulari, smartphone e tablet sono ormai parte integrante del corpo umano, vuoi per necessità, vuoi per ragioni di dipendenza (inutile negarlo), e la loro pulizia non è sempre curata con la stessa attenzione.


In realtà stiamo parlando di “igiene digitale” in sé e non di quella degli strumenti. Ed il perché è chiaro pensando all’igiene in senso tradizionale. Le sue regole vengono insegnate fin da bambini e sono tra le misure che più hanno contribuito negli ultimi due secoli ad allungare la durata della vita media. Invece nel mondo digitale (che appare virtuale ma a tutti gli effetti è reale) non si sente mai parlare di “norme d’igiene”. C’è chi con il termine “igiene digitale” si riferisce a come ci si relaziona con gli altri sui social oppure a come non diventare schiavi dei propri dispositivi. Invece, per noi si tratta proprio di norme analoghe a quelle dell’igiene fisica, opportune per prevenire malattie.

In questo ambito fu fondamentale la scoperta del medico ungherese Ignaz Semmelweis intorno alla metà dell’ottocento, grazie alla quale vennero salvate le vite di migliaia di donne. Egli osservò che, lavandosi le mani dopo aver fatto l’autopsia e prima di assistere le partorienti, la frequenza della loro mortalità diminuiva fortemente. Lavarsi le mani diventò il rito fondamentale con cui iniziare le operazioni chirurgiche. Non da subito purtroppo, dal momento che questa scoperta – come a volte avviene – richiese ancora qualche decina d’anni per essere accettate e diffondersi.

Per estensione, divenne la norma fondamentale insegnata a tutti i bambini: “làvati le mani”, era ed è l’intimazione dei genitori prima di mettersi a tavola, ed in generale ogni volta che si rientra a casa. L’assunto igienico fondamentale è che “là fuori” c’è un mondo che può essere ostile in termini di microbi e, a maggior ragione quando si tratta di far entrare qualcosa nel nostro corpo, è opportuno prendere delle contromisure.

Se però nel caso fisico può essere semplice far osservare ad un bambino riottoso lo sporco “sotto le unghie” e quindi convincerlo, per il mondo digitale, purtroppo, il passaggio è molto meno immediato. Quante persone, ad esempio, ancora oggi fanno entrare sul proprio dispositivo (PC, tablet, o smartphone) oggetti fisici (p.es., chiavette USB) o virtuali (p.es., allegati) senza la consapevolezza del loro poter essere “infetti”? È anche vero che l’evoluzione di questi “organismi digitali” è avvenuta con una velocità che l’umanità non ha mai incontrato finora: mentre per gli aspetti fisici la generazione degli attuali genitori ha potuto beneficiare dell’educazione in termini di igiene da parte dei loro genitori, per l’igiene digitale siamo stati tutti immersi di colpo nel giro di neanche vent’anni in un mondo per il quale non abbiamo i sensi adatti.

L’analogia comunque vale interamente: il mondo digitale è popolato di “forme di vita” (lasciateci passare questo termine) che non sempre sono benigne nei confronti nel nostro “io digitale”. Virus e worm ad esempio, continuano a diffondersi a ritmi impressionanti, e le precauzioni non sembrano essere mai sufficienti.

Certo, le regole d’igiene digitale possono essere fastidiose, limitare in alcuni casi il nostro raggio d’azione. Qualcuno dirà che possono apparire scontate e che è inutile stare a ripeterle. In realtà non sono pochi coloro che ancora oggi inseriscono chiavette altrui nei propri dispositivi informatici senza opportune verifiche.

Probabilmente il modo migliore per far capire, accettare ed applicare queste regole al contesto digitale è proprio quello di agganciarle concettualmente al mondo fisico: in questo modo le persone riuscirebbero a comprendere meglio che quello che accade nei loro pc e nei loro dispositivi mobili è reale e non virtuale.

In questi casi, c’è però da osservare che la terminologia impiegata non aiuta. Usare parole come “virtuale” o prefissi come “cyber” allontana le persone dalla reale percezione dei pericoli rispetto al mondo fisico, e fa erroneamente ritenere che le norme d’igiene digitale siano irrilevanti.

Ed è forse proprio da questo che si dovrebbe iniziare.

-----
Pubblicato su "Key4Biz" il 19 aprile 2017.

mercoledì 1 marzo 2017

Passeggeri, marinai o navigatori dell'oceano digitale?

di Enrico Nardelli

Chiunque abbia un po’ di ore di esperienza attiva in barca a vela, sa bene che una cosa è conoscere cosa vuol dire “poggiare” o “mollare la scotta” oppure sapere come fare per “dare volta alla cima sulla bitta” o “dare una mano di terzaroli”. Cosa diversa è stabilire la rotta e far arrivare alla sua destinazione un’imbarcazione a vela con tutto il suo equipaggio superando gli imprevisti. I primi sono “i marinai”, i secondi sono “i navigatori di lungo corso”. Tutti gli altri sono “passeggeri”, che pure devono essere informati su dove mettere mani e piedi e come affrontare il viaggio in sicurezza.

Ritengo che nella società contemporanea il “digitale” rivesta il ruolo che fino a due secoli fa rivestiva la navigazione a vela. Era una componente essenziale della prosperità di una società ed ogni nazione grande (in senso commerciale o militare) aveva di norma una grande flotta (commerciale o militare) di velieri, e viceversa. Avere bravi marinai e navigatori competenti era vitale. Il benessere della nazione dipendeva sia dalla quantità dei primi che dei secondi. Ma era ben chiara l’importanza di addestrare sia gli uni che gli altri.

In un post di ormai 3 anni fa avevo introdotto una distinzione tra alfabetizzazione digitale ed educazione digitale, che qui riprendo ed estendo utilizzando il contesto di questo parallelo con la marineria.

L’alfabetizzazione digitale (digital literacy in inglese) dovrebbe essere completamente compiuta, come l’alfabetizzazione propriamente detta, al più tardi al termine della scuola elementare. Così come la parte di alfabetizzazione che ha a che vedere con i numeri è basata sulla matematica, così la sua componente che ha a che vedere con il digitale deve essere basata sull’informatica. Nel paragone marinaresco, essa forma i passeggeri, perché comunque, per cavarsela a bordo di una nave, bisogna essere consapevoli del fatto che non si è più sulla terraferma. Detto così appare banale, perché non appena saliamo a bordo di un’imbarcazione tutti i nostri sensi ce lo dicono. Ma nel mondo digitale ci mancano "i sensi" adeguati. L’alfabetizzazione digitale fornisce le “competenze digitali di base” (basic digital skills fa più figo ma è la stessa cosa), essenziali per potersi orientare in quella “nave digitale” che è la società attuale.

L’educazione digitale, chiamata anche cittadinanza digitale e nota nel mondo anglosassone come digital fluency, è la capacità di muoversi del tutto a proprio agio in una comunità sociale pervasa di strumenti e dati digitali. La formazione di cittadini digitali, così come la formazione di cittadini tout court, dovrebbe essere completamente conclusa al più tardi al termine della scuola secondaria. A maggior ragione, essa è basata sull’insegnamento del nucleo scientifico-culturale dell’informatica, quello che chiamiamo pensiero computazionale. Questo livello di formazione produce i marinai, cioè quelli che nell’oceano digitale posseggono la digital fluency.

Una nota di cautela: spesso nelle discussioni mediatiche e politiche si usa il termine “competenze digitali” (digital skills) senza qualificare se si parli di quelle di base, prodotto dell’alfabetizzazione, o di quelle che rendono uno studente un vero “cittadino digitale”, ottenute al termine del percorso scolastico.

Voglio anche evidenziare il pericolo di affrontare la formazione delle competenze digitali senza fondarle sul pensiero computazionale. Temo che un tale approccio conduca a formare marinai che come diceva Leonardo da Vinci:

“… sono come i nocchieri che entrano in naviglio senza timone o bussola, che mai hanno certezza dove si vadano.”

Infine sottolineo l’importanza del terzo livello di formazione: quello dei navigatori, cioè degli specialisti. La loro formazione è compito del livello terziario dell’educazione (cioè dell’Università). A causa della pervasività delle tecnologie dell’informazione, per poter far sì che ci siano abbastanza studenti (e soprattutto studentesse) che vogliano diventare specialisti, è importante che l’informatica come disciplina scientifica sia correttamente introdotta nella scuola, in modo che tutti gli studenti possano acquisire confidenza con i suoi princìpi di base fin dai primi livelli di istruzione. Questo argomento, si badi bene, è aggiuntivo rispetto a quello che sostiene l’importanza di insegnare informatica nella scuola perché è la base scientifica sulla quale costruire il “cittadino digitale”.

Entrambi gli argomenti son ben chiari ai decisori politici negli USA che, al netto dell’enfasi mediatica sul coding, si sono mossi di conseguenza: si veda, ad esempio, l’iniziativa Informatica per tutti di Obama che ha inserito la “computer science” (cioè l’informatica) tra i well rounded subjects cioè nell’insieme delle materie che devono far parte dei programmi educativi scolastici e dei programmi di formazione professionale degli insegnanti.

E in Europa?

-----
Pubblicato su "Il Fatto Quotidiano" il 9 febbraio 2017.

domenica 29 gennaio 2017

Sicurezza informatica: non vediamo e non vogliamo accettarlo

di Isabella Corradini e Enrico Nardelli

La vita alle volte è dura. Può accadere che un grave incidente ti privi di qualcosa di prezioso, come la vista. È una situazione difficile da accettare e infatti tu, testardamente, ti ostini a far finta di vederci ancora. Ovviamente, guai ed inciampi sono all’ordine del giorno e ti ricopri di ferite e bernoccoli. Corri ai ripari con protezioni e bendaggi, ma gli incidenti non diminuiscono. Cos’è che non funziona?

In un caso di questo genere pensiamo sia abbastanza evidente per tutti cos’è che non va: rifiutarsi di accettare che non c’è più un organo di senso essenziale per orientarsi e capire il mondo intorno a noi.

Solo passando attraverso questa consapevolezza ed introiettandola è possibile poi riuscire ad adottare i comportamenti più adeguati alla nuova situazione.

La situazione discussa in questo esempio è il punto di partenza per discutere altre situazioni in cui “ci ostiniamo” a non vedere o a non voler vedere cosa succede intorno a noi, pur sottolineando che le implicazioni umane ed emotive non sono paragonabili.

Quella di cui parliamo in questo post è relativa a ciò che sta accadendo da una decina d’anni rispetto alla sicurezza informatica.

La crescente ed ormai ubiqua digitalizzazione della società, che per certi versi è una benedizione per i vantaggi che apporta, ha come contropartita quella di averci trasportato in un mondo per il quale non abbiamo organi di senso. Come nell’esempio sopra riportato, ci ostiniamo a far finta che non sia accaduto niente.

La sicurezza informatica, così come la stiamo gestendo, non funziona.

Non ne siete convinti? Guardiamo i dati degli ultimi 12 anni sul fenomeno data breaches, si “vede” chiaramente cosa dicono.


Questo grafico è un’elaborazione realizzata dal laboratorio Link&Think sui dati disponibili alla pagina http://www.informationisbeautiful.net/visualizations/worlds-biggest-data-breaches-hacks/, nella quale sono riportati i singoli eventi di data breach superiori ai 30.000 record persi/sottratti in ogni evento.

Nel nostro grafico vengono esposti in tre modi diversi gli eventi aggregati per anno:
  • la linea in grigio (Volume) mostra la semplice quantità totale, in milioni, di record persi/sottratti ogni anno;
  • la linea in celeste (Valore lineare) mostra il valore complessivo, in milioni, dei record persi in ogni anno, pesando record di tipo diverso con una funzione a crescita lineare;
  • la linea in rosso (Valore esponenziale) mostra il valore complessivo, in milioni, dei record persi in ogni anno, pesando i record di tipo diverso con una funzione a crescita esponenziale.

I tipi di record sono classificati sul sito sorgente in 5 tipologie di crescente gravità, caratterizzate dai seguenti esempi:
  1. indirizzi mail o informazioni relative all’interazione online delle persone (ma non pubblicamente disponibili)
  2. codice fiscale o dati personali
  3. dati della carta di credito (numero, scadenza, …)
  4. password non crittate o dati sanitari
  5. dati bancari completi
Vale la pena fare qualche riflessione.

Dal 2004, caratterizzato dall’attacco alla multinazionale AOL, specializzata nel campo delle comunicazioni e dei mass media, c’è stato un crescendo di incidenti che hanno riguardato grandi aziende operanti nei più svariati settori. Sono state coinvolte, a titolo di esempio, organizzazioni dall’area tecnologica (Sony nel 2011, Dropbox nel 2012) a quella bancaria (J.P. Morgan nel 2014), dall’area social (Yahoo nel 2013) a quella legale (Mossack Fonseca nel 2016), nonché strutture governative (l’Office of Personnel Management del governo USA nel 2015).

I dati, dunque, sia personali che aziendali, continuano a rappresentare una risorsa di grande interesse per i cybercriminali, i quali possono utilizzarli per ottenere un immediato profitto economico o per compiere altri reati.

Da un punto di vista aggregato, si osserva chiaramente nel grafico come dal 2012 il fenomeno sia esploso, peggiorando notevolmente sia in volume che in valore rispetto agli 8 anni precedenti, e non riusciamo a contenerlo. Nonostante negli anni 2014-2015 il grafico mostri infatti un miglioramento della situazione, i dati del 2016 evidenziano che si è trattato di un successo effimero. Per rimanere agli esempi, basti pensare al furto di e-mail che ha riguardato lo staff della candidata alle presidenziali Hillary Clinton nel giugno del 2016.

A fronte di questo scenario insistiamo con contromisure tecnologiche che dovrebbero risolvere tutti i problemi degli attacchi cibernetici e delle violazioni dei dati, ma i risultati non arrivano. Anzi, continuano a verificarsi incidenti di sicurezza sempre più gravi, con vittime più o meno illustri, come testimoniano i dati.

Cosa succederà con il diffondersi sempre più capillare dell’uso delle tecnologie dell’informazione (si pensi, ad esempio, all’Internet of Things) che moltiplica i dati digitali nella Rete?

Sembra proprio che, come nella situazione descritta all’inizio del post, ci si rifiuti di prendere consapevolezza del fatto che ci mancano i sensori adeguati per questo scenario e, dunque, non si mettano in atto strategie opportune, continuando invece a delegare alle sole tecnologie il compito di realizzare soluzioni efficaci.

mercoledì 18 gennaio 2017

Di cosa parliamo quando parliamo di pensiero computazionale

di Enrico Nardelli

Risposta super-breve: del fatto che l’informatica è fondamentale e trasversale.

La risposta lunga inizia spiegando il perché del titolo: si tratta di un omaggio a Raymond Carver, scrittore americano che è considerato l’iniziatore della corrente del minimalismo (cito dalla Treccani on line). Il motivo è che provo a spiegare con parole semplici (come, appunto, si dice Carver facesse nelle sue opere) cosa intendiamo quando parliamo di pensiero computazionale.

1. Introduzione: le discipline di valore generale


Inizio ribadendo che col termine “pensiero computazionale” indichiamo gli aspetti culturali e scientifici dell’informatica, a prescindere da qualunque aspetto strumentale o tecnologico. Ne ho fornito alcuni approfondimenti su questo blog, illustrando alcuni termini chiave e discutendo una definizione in dettaglio.

Ritorno adesso sul perché usiamo questa espressione, ovvero “di cosa parliamo quando parliamo di pensiero computazionale”. Comincio con un paio di citazioni.

Donald Knuth, scienziato conosciutissimo sia dai matematici che dagli informatici, nel 1974 ha scritto (p.327) «In realtà una persona non ha davvero capito qualcosa fino a che non è in grado di insegnarla ad un computer».

George Forsythe, analista numerico ed uno dei padri della formazione universitaria in informatica (è stato tra i fondatori del Dipartimento di Computer Science di Stanford – uno dei primi a nascere e tuttora tra i migliori al mondo), nel 1968 ha scritto (p.456): «Le acquisizioni più valide nell’educazione scientifica e tecnologica sono quegli strumenti mentali di tipo generale che rimangono utili per tutta la vita. Ritengo che il linguaggio naturale e la matematica siano i due strumenti più importanti in questo senso, e l’informatica sia il terzo».


Linguaggio naturale e matematica sono, giustamente, insegnati fin dal primo anno delle elementari, perché costituiscono delle competenze “fondamentali e trasversali”, cioè utili sia in sé e per sé che nell’applicazione a qualunque altra materia.

È infatti evidente che per qualunque relazione sociale serve conoscere il linguaggio naturale ed è altrettanto evidente che per discutere di quantità è necessario sapere la matematica: soltanto con “niente”, “poco” e “tanto” non si fanno molti progressi. Linguaggio e matematica sono quindi fondamentali.

Inoltre, per riuscire bene in storia, geografia, scienze, arte, il linguaggio naturale è indispensabile, altrimenti non riusciremmo a spiegare e descrivere i soggetti che stiamo trattando, ed è altrettanto necessaria la matematica, pena l'impossibilità – nel discutere di questi soggetti –di confrontare quantità, stabilire relazioni numeriche, ordinare valori. Linguaggio e matematica hanno quindi un valore trasversale, cioè un’utilità ed un’applicabilità interdisciplinari.

Non accade – però – che si insegnino il “pensiero linguistico” o il “pensiero matematico” unicamente per il loro valore interdisciplinare. Si insegnano, giustamente, “italiano” e “matematica” come materie di base, e poi le competenze linguistiche e matematiche vengono naturalmente travasate e messe in gioco quando si parla – ad esempio – di arte o di storia.

Nel seguito spiegherò perché anche l’informatica è una disciplina fondamentale e con un valore trasversale, come italiano e matematica.

Devo però prima spiegare perché usiamo il termine “pensiero computazionale” parlando di insegnamento dell’informatica nella scuola.

Questo dipende essenzialmente dal fatto che se si usa il termine “informatica”, si possono intendere concetti che vanno dalla “teoria della complessità computazionale” a “quale formato ha il file system sulla pennetta USB”. Questa è una maledizione da cui forse solo l'informatica è afflitta. Nessuno confonde più ormai il medico con l'infermiere, l'ingegnere con il meccanico, tutti mestieri nobilissimi ed ugualmente rispettabili, ma che hanno ovviamente diverse aree di competenza.

Usiamo quindi questa espressione affinché tutti abbiano ben chiaro che, che quando parliamo della necessità di “insegnare informatica nella scuola”, l’obiettivo non è insegnare l’uso di un certo strumento o applicazione o di una determinata tecnologia e sistema, quanto l’apprendimento dei concetti scientifici di base. Esattamente come a tutti è chiaro che insegnare matematica nella scuola non vuol dire insegnare a diventare esperti nel fare i conti, ma far sviluppare competenze relative alle quantità ed alle loro relazioni e manipolazioni.

2. Perché l’informatica è una disciplina fondamentale


Oltre alle due citazioni precedentemente riportate fornisco argomenti già articolati in altri paesi.

Una prima risposta è quanto si sta facendo negli Stati Uniti (non certo una nazione di secondario rilievo). A dicembre del 2015 sia la Camera che il Senato, con un appoggio bipartisan ed a larghissima maggioranza, hanno approvato l’ “Every Student Succeeds Act” (ESSA). Questa legge, firmata dal Presidente Obama il 10 dicembre scorso, riconosce che l’informatica (computer science) è un soggetto fondamentale per l’educazione scolastica K-12 (negli USA si usa quest’espressione per indicare i 12 anni di educazione dalla prima elementare all’ultimo anno delle superiori, la cui durata è di 4 anni).

La legge riconosce che l’informatica è un’abilità fondamentale per fornire a tutti gli studenti un’educazione bilanciata e adeguata al 21-mo secolo. Di conseguenza la inserisce, a pari merito con discipline più tradizionali (quali la madrelingua, la matematica, le scienze, solo per citarne alcune) nell’insieme delle materie (well rounded education subjects) che dovranno far parte dei programmi educativi che i singoli stati dovranno definire e che saranno obiettivo di programmi di sviluppo professionale degli insegnanti.

Aver aggiunto l’informatica all’insieme dei well rounded education subjects significa che il legislatore americano ha ritenuto necessario esporre gli studenti da subito e con continuità a questo soggetto di studio, in modo integrato con le altre parti del curriculum, allo scopo di apportare benefici durevoli alla società e all’economia.

Successivamente, nel Gennaio 2016, il Presidente Obama ha proposto un piano da 4 miliardi di dollari affinché «tutti gli studenti americani dall’asilo al liceo imparino l’informatica e acquisiscano la competenza di pensiero computazionale necessaria per essere creatori, e non semplici consumatori, nell’economia digitale, e cittadini attivi di una società sempre più tecnologica».

Una seconda risposta viene dall'Académie des Sciences, l’accademia nazionale degli scienziati della Francia, che nel Maggio 2013 ha prodotto un rapporto (L’enseignement de l’informatique en France. Il est urgent de ne plus attendre) che osserva che la maggior parte degli avanzamenti tecnologici più innovativi degli ultimi decenni sono il risultato diretto dell’informatica (dai motori di ricerca, alle reti di comunicazione, ai computer miniaturizzati presenti in ogni oggetto).

Il documento poi ricorda che la capacità dell’informatica di elaborare simboli di qualunque tipo la rende utile per tutte le altre discipline scientifiche alle quali l’informatica fornisce nuovi modi di pensare ed argomenta la necessità di insegnare l'informatica nelle scuole, a tutti i livelli, al di là dell’insegnamento a livello utente degli strumenti di base hardware e software. L’approccio suggerito è quello di iniziare esponendo i bambini alle nozioni fondamentali dell’informatica come scienza nella scuola primaria, proseguendo nella secondaria inferiore con l’acquisizione e l’approfondimento dei concetti – che conduca gli studenti ad un loro uso in autonomia, e sviluppando ulteriormente la formazione nella secondaria superiore.

Il rapporto francese sottolinea l’importanza che tutti i cittadini ricevano un’adeguata formazione sull’informatica, in modo da fornire loro le chiavi per comprendere un futuro in cui tutto sarà sempre più digitalizzato. Questa comprensione è necessaria per capire e prendere attivamente parte alla sua evoluzione invece di consumare e subire ciò che è stato deciso altrove. Il rapporto ricorda anche che in tutte le professioni, da quelle letterarie a quelle sociali, scientifiche o artistiche, l’interazione con strumenti digitali sta diventando la norma e la comprensione dei principi scientifici di base – che sono sempre gli stessi indipendentemente dai settori applicativi – è fondamentale.

In questi mesi tali indicazioni stanno diventando in Francia documenti che saranno operativi a partire dal prossimo anno scolastico.

Infine, una terza risposta è stata data dalla Royal Society, l’ente nel Regno Unito analogo dell’Académie des Sciences francese, che a Gennaio 2012 ha messo nero su bianco (Shut down or restart? The way forward for computing in UK schools) che ogni bambino dovrebbe avere la possibilità di imparare i concetti e i principi dell'informatica, sia per il proprio beneficio personale che nell’ottica della prosperità della nazione. Il rapporto rimarca l’importanza di apprendere concetti e principî dell’informatica sin dall’inizio della scuola primaria.

Anche per la Royal Society le motivazioni per insegnare l’informatica sono l’importanza per gli studenti di comprendere il mondo digitale che ci circonda e la possibilità di giocare un ruolo attivo e non essere consumatori passivi di una tecnologia misteriosa ed opaca. Inoltre osserva che cittadini che conoscono le basi scientifiche della tecnologia informatica sono in grado di partecipare in modo più informato e razionale di argomenti come i brevetti software, furti d’identità, ingegneria genetica, votazioni elettroniche.

Sulla base di questo rapporto, a partire da settembre 2014 ogni scuola del Regno Unito, ad ogni livello, deve insegnare i principî base dell'informatica.

3. Perché l’informatica ha un valore trasversale


L'informatica ha una caratteristica, nuova e sua specifica, che la rende ancora più interessante in un’ottica interdisciplinare rispetto alla lingua naturale ed alla matematica.

La lingua naturale è il mezzo base di espressione, ed in quanto tale permette di trattare qualunque soggetto, dai più concreti a quelli più rarefatti. Ovviamente ha un enorme “potere evocativo” ma purtroppo, o meglio per fortuna, possiede una sua intrinseca “ambiguità”, che non gli consente quella precisione che però in alcuni casi è necessaria. Quando leggiamo “I tre moschettieri” è la nostra fantasia che dà vita ai dettagli. Infatti, ogni regista che si è confrontato con l’opera ha dato vita alla sua rappresentazione del romanzo.

A compensare questa caratteristica della lingua naturale interviene la matematica, che fa del rigore e dell'esattezza la sua forza. Se si vuole descrivere qualcosa con precisione assoluta, allora il formalismo matematico è la soluzione giusta, ed una formula matematica ha sempre un preciso significato nel contesto della sua teoria di riferimento. Ma questa forza può essere inadeguata, in molti casi della vita. Perché non sempre ciò che trattiamo è suscettibile di quella formulazione così rigorosa di cui la matematica ha bisogno per esplicare il suo potere descrittivo. Appunto, non è possibile descrivere “I tre moschettieri” in formule.

La matematica è certamente in grado di definire simboli che rappresentano, ad opportuno livello di astrazione, concetti del mondo. Però, se non ha teorie, cioè teoremi, in grado di dedurne conseguenze, tale formalizzazione non è poi così produttiva. Ne abbiamo un esempio lampante nella biologia, in cui diversi aspetti erano stati modellati matematicamente già molti decenni fa. Ma è stato solo quando ad essi si è applicata l’informatica, con le sue peculiari caratteristiche sopra ricordate, che in quest’area “formale” della biologia è scoppiata una fioritura di risultati senza precedenti.

Un esempio più articolato è relativo alla manipolazione del linguaggio naturale. Non si può costruire una teoria matematica precisa del linguaggio naturale, perché troppe sono le eccezioni e le sfumature. Ma l'informatica, che come lo stesso Knuth ricorda (p.326), eccelle nel trattare sia casi particolari ed eccezioni che relazioni che cambiano subito dopo che sono state definite, riesce a gestire queste situazioni. Infatti gli impressionanti avanzamenti degli ultimi anni nella comprensione del linguaggio da parte dei calcolatori sono concretamente possibili solo grazie all’informatica, anche se basati su teorie matematiche molto sofisticate.

La forza dell’informatica in un contesto educativo è costituita dalla capacità di concretizzare mondi virtuali, grazie alle sue possibilità apparentemente illimitate di elaborare simboli di qualunque tipo ed in qualunque modo. Perché niente è utile per apprendere un concetto come farne esperienza concreta.

Con l'informatica è possibile costruire qualunque mondo vogliamo esplorare e dargli senso, definire un insieme di regole e dar loro vita, animandole mediante un'esecuzione su di un appropriato dispositivo automatico. Con l’informatica è possibile costruire una simulazione di fenomeni fisici, biologici o sociali di cui si conoscano (anche in modo parziale ed approssimato) le leggi, osservare cosa accade e “cosa accadrebbe se…”. Ed estendendo queste simulazioni è possibile costruire quelle “realtà virtuali” di cui stiamo vedendo l’incalzante diffusione ed alle quali è comunque necessario fare attenzione per le possibili conseguenze sulla vita reale.

4. Conclusioni


Questi sono i motivi per cui parliamo di “pensiero computazionale” nella scuola. Ma non chiediamo che sia questo il nome della materia, non ha senso. Non chiediamo che in tutte le materie ci sia “il momento del coding”, non ha senso, Bisogna insegnare “informatica”, così come si insegna “italiano” e “matematica”. E poi, se questo viene fatto in modo adeguato, da docenti che sono stati adeguatamente preparati a questo scopo, allora i benefici verranno.

Il nostro Paese, in cui già 25.000 insegnanti hanno portato più di un milione di studenti a svolgere quasi 10 ore a testa di informatica, ha dimostrato di essere pronto ed interessato a seguire questa strada.

Non perdiamo quest’occasione.


-----
Una sintetica versione preliminare di questo articolo è stata pubblicata su "Il Fatto Quotidiano" il 23 gennaio 2017.

Ringrazio i lettori che con i loro commenti alla versione preliminare hanno contribuito a estendere e migliorare la presentazione.