sabato 15 luglio 2017

Quanto ne sanno i consumatori di intelligenza artificiale?

di Isabella Corradini

Non c’è dubbio che il tema dell’Intelligenza Artificiale (IA) sia oggetto di grande interesse e di numerosi dibattiti. Le sue potenzialità sono di particolare attrattività per il mondo aziendale in quanto potrebbero rivoluzionare il modo di erogare i servizi alla clientela, e non solo. Ma cosa ne pensano i consumatori?

Nell’ambito di uno studio globale condotto su 6.000 soggetti adulti da Pegasystems, società operante nell’ambito delle soluzioni di Customer Engagement, è emerso un quadro interessante. In particolare, prevale un sentimento di “confusione” nell’interagire con l’IA. Ad esempio, solo il 34% del campione ha dichiarato di averne avuto esperienza diretta, per poi scoprire che in realtà fa già uso nel quotidiano di diversi dispositivi e servizi basati sull’Intelligenza Artificiale.
In questo modo la percentuale sale all’84%. In generale, comunque, dallo studio





emerge, allo stato attuale, una scarsa consapevolezza dei consumatori su cosa sia effettivamente l’Intelligenza Artificiale e sulle sue funzionalità. Se ne parla molto, ma un conto è parlarne da esperti, un conto è spiegare l’IA agli utenti, non sempre padroni del linguaggio tecnologico.

Si tratta di un punto basilare, dal quale può dipendere il comportamento di diffidenza o di apertura verso l’Intelligenza Artificiale. Da un lato, infatti, più del 70% del campione intervistato nutre un certo timore nei confronti dell’AI, dall’altro invece, il 68% dichiara la disponibilità a sperimentarne di più, se ciò dovesse facilitare la vita di tutti i giorni, ad esempio facendo risparmiare tempo e denaro. Diventa dunque indispensabile informare correttamente i consumatori sul tema; e magari dovrebbero essere proprio le imprese a farlo, sia per il fatto che stanno investendo molto in questo campo, sia perché la diffusione di prodotti e servizi è comunque legata al senso di fiducia dei consumatori.

A questo punto, però, sarebbe opportuno attivarsi per una maggiore chiarezza non solo riguardo ai vantaggi dell’IA, ma anche ai possibili rischi. Insomma, far conoscere la reale portata del cambiamento permetterebbe alle persone di decidere, e questa volta con consapevolezza.

Pubblicato su Bancaforte l'8 giugno 2017.

lunedì 29 maggio 2017

La "grande bellezza" dell'informatica

di Enrico Nardelli

Tutta la scienza è basata su astrazioni: spiegare fenomeni mediante modelli che li descrivono. Quando un fisico scrive l’equazione che rappresenta il moto di un corpo, o un chimico la reazione che spiega la formazione di una sostanza, o un biologo descrive il processo di sviluppo di un organismo, stanno tutti costruendo un modello, cioè una rappresentazione della realtà.

Stanno quindi usando l’astrazione: il concentrarsi su ciò che è essenziale per il punto di vista assunto ed è comune a tutti gli specifici esempi descritti dal modello stesso.

Così, sotto certe condizioni che vanno specificate chiaramente, dal momento che le astrazioni non sono sempre valide nel 100% dei possibili scenari, per il fisico non è determinante la materia di cui sono fatti i corpi che si muovono, o per il chimico il colore delle sostanze che reagiscono o per il biologo la nazione in cui si trova l’organismo che si sviluppa.

Generalmente l’astrazione viene formulata in un linguaggio matematico, dal momento che tale disciplina è necessaria ovunque servano precisione e rigore. Un ragionamento scientifico deve necessariamente rientrare nei canoni logici di coerenza e consequenzialità, pena la sua uscita da questo paradigma della conoscenza.

Anche l’informatica usa estesamente l’astrazione, ma in questo suo utilizzo si distingue per una caratteristica che essa sola possiede e che ne costituisce, a mio parere, la ragione che spiega la sua “grande bellezza”. Le astrazioni dell’informatica sono eseguibili in modo meccanico. Vuol dire che possono essere animate, cioè si può “dar loro vita e vedere che accade” senza dover ogni volta costruire una nuova rappresentazione fisica dell’astrazione stessa. Anche nelle altre discipline si può dar vita alle astrazioni mediante oggetti fisici che esprimono i fenomeni modellati, sostanziandone così la loro espressione logico-matematica. Ma per ogni modello va realizzato ad hoc un insieme di oggetti.

Nell’informatica, grazie alla sua astrazione fondamentale, il cui termine tecnico è “Macchina Universale di Turing” (MUT), abbiamo un unico meccanismo unico mediante il quale, sempre allo stesso modo, qualunque modello può essere “meccanicamente” (cioè in modo del tutto automatico) “eseguito” (cioè reso vivo), senza necessità di ulteriore intervento umano. I PC, gli smartphone e i tablet di cui siamo circondati non sono nient’altro che realizzazioni tecnologicamente molto sofisticate della MUT.

Descrivendo questa unicità dell’informatica non intendo ovviamente sostenere che sia più importante o possa sostituire altre discipline scientifiche. Chi si avventura su questa strada apre polemiche infantili e sterili. Voglio solo ribadire la necessità che l’informatica sia insegnata nella scuola, come in altri paesi stanno facendo. Perché offre un nuovo, complementare ed utile punto di vista per la descrizione dei fenomeni naturali ed artificiali.

In Italia usiamo a questo scopo il termine “pensiero computazionale”, suscitando a volte reazioni più emotive che razionali. Ma l’espressione, come ho spesso discusso, è solo un modo di far capire che stiamo parlando dell’informatica come scienza, delle sue idee, princìpi, concetti, metodi ed approcci e non di sistemi, tecnologie e strumenti. In altri paesi questa necessità non c’è, perché si può parlare di “computer science” e di “information technology”. In Italia entrambe sono “informatica”.

Il pensiero computazionale è la capacità, acquisita da chi ha studiato e praticato l’informatica, di riconoscere gli aspetti computazionali dei fenomeni naturali ed artificiali. Vuol dire descrivere alcuni aspetti di questi fenomeni “come se” fossero delle computazioni. Non è detto che lo siano effettivamente, ma in ogni caso offrono nuovi e utili modi per analizzare e spiegare la realtà. Un esempio lampante è la descrizione dei processi biologici a livello molecolare: il meccanismo di replicazione del DNA può anche essere visto “come se” fosse una computazione, e questo ha offerto enormi vantaggi per la sua comprensione. Anche in economia e in sociologia si trovano esempi dell’utilità di questo approccio.

La realtà, dunque, può essere descritta in diversi modi e l’approccio informatico, grazie alla sua capacità di coglierne la sfaccettatura computazionale, certamente è uno di questi.



-----
Versione originale pubblicata su "Il Fatto Quotidiano" il 27 maggio 2017.

lunedì 15 maggio 2017

Chi ha paura del pensiero computazionale? (un anno dopo)

di Enrico Nardelli

A distanza di oltre un anno dal precedente articolo “Chi ha paura del pensiero computazionale?” continuo ad incontrare sulla rete espressioni immotivatamente critiche a proposito di questo termine: «Il pensiero computazionale non esiste» oppure «… è una truffa concettuale» o in alternativa «… è una truffa pedagogica e didattica». Altre posizioni lo descrivono come «… passione pedagogica fondata sul nulla» o, se vogliono concedere qualcosa, come «… piccola e preesistente frazione del pensiero scientifico e tecnologico».

È evidente, leggendo più in dettaglio le critiche, che alcune di queste derivano da opinioni politiche in disaccordo con l’attuale gestione della scuola. Idee del tutto lecite, ma che sviluppandosi su un piano politico non tratto in questa sede.

Qui invece analizzo le considerazioni sull’adeguatezza scientifica e/o didattica del termine “pensiero computazionale”. In genere osservo sempre, come ho fatto su questa rubrica e su questa e su questa, che esso ha il solo scopo di far capire che si parla degli aspetti scientifici e culturali dell’informatica, indipendenti dalla tecnologia. Esso quindi fa riferimento alle idee, ai concetti ed ai princìpi dell’informatica e non a sistemi, tecnologie e strumenti. L’obiettivo strategico per cui viene usato in Italia è arrivare a far sì che nella scuola si insegni l’informatica. Non ovviamente quella delle varie patenti di guida o degli applicativi o di specifici linguaggi di programmazione, ma quella che tutto il mondo riconosce come disciplina scientifica autonoma. Ecco una trattazione più estesa di questo punto. In altri paesi questa necessità non c’è, perché si può parlare di “computer science ” e di “information technology ”. In Italia entrambe sono “informatica ”.

Chiedo sempre a chi è in disaccordo di esplicitare in modo esteso e argomentato posizioni di critica non tanto a ciò che scrivo io, perché non si tratta di una questione personale, ma a quello che hanno scritto prestigiose società scientifiche internazionali. Invito quindi a discutere direttamente il cuore del problema, cioè la necessità dell’insegnamento nelle scuole dell’informatica, sostenuta in questi rapporti: The Royal Society, Shut down or restart? The way forward for computing in UK schools (2012) e Académie des Science, L’enseignement de l’informatique en France. Il est urgent de ne plus attendre (2013), anche in inglese.

Ad oggi non ho letto una critica di questi rapporti fondata su di un’analisi approfondita e motivata.

Tornando alle critiche sopra citate, esse sono generalmente basate sulla tecnica dell’ “argomento fantoccio ” (“straw man ” in inglese). Viene cioè criticata non la definizione generalmente accettata di pensiero computazionale (cioè la modalità di pensiero che ha acquisito ed usa per descrivere e spiegare i fenomeni chi ha studiato e praticato l'informatica come disciplina scientifica) ma una propria definizione scelta ad hoc (p.es: «… come pensano i computer»).

Ribadisco che questa non è una mia definizione ma quella usata da eminenti scienziati nei rapporti sopra citati e in altri documenti ancora. Dal momento che gli informatici esistono, il loro specifico punto di vista sul mondo e il loro particolare modo di pensare esistono. Quindi ritengo esagerato e scorretto dire che “il pensiero computazionale non esiste”.

Certamente vi sono perplessità sulla mancanza di una chiara attività di indirizzo su come insegnare informatica nella scuola. I miei colleghi ed io esercitiamo un'azione di stimolo in questa direzione, ma la situazione è ancora in divenire.

Criticare inoltre – come taluni fanno – l’affermazione che il pensiero computazionale abbia una sua posizione di preminenza rispetto ad altre modalità di lettura della realtà è nuovamente usare un argomento fantoccio. L’attività di pensiero assume differenti modalità o sfumature a seconda della formazione della persona. I modi di pensare e di riflettere sul mondo di un letterato, di un musicista, di un fisico, di un biologo, etc., sono tutti ugualmente validi, diversi l'uno dall'altro e complementari. Contribuiscono tutti alla comprensione del mondo.

Il pensiero computazionale, cioè il modo di descrivere la realtà che hanno gli informatici, apporta qualcosa di nuovo e diverso da quello delle altre discipline scientifiche? Sì, come illustrato dagli scienziati nei rapporti sopra citati. Esso è una nuova, distinta ed utile variante del pensiero scientifico e tecnologico, non certo un piccolo sottoinsieme preesistente.

Va insegnato nella scuola come tale? No, va insegnata a scuola la disciplina che lo sviluppa, cioè l'informatica. È quello che si fa negli USA, in UK e in Francia.

Possiamo confrontarci su come farlo, invece che discutere sulle definizioni?

-----
Pubblicato su "Il Fatto Quotidiano" il 3 maggio 2017.

mercoledì 26 aprile 2017

Igiene digitale, norme base di prevenzione

di Isabella Corradini e Enrico Nardelli

Un titolo eccentrico, quello di questo articolo. Farebbe pensare alla pulizia degli strumenti digitali. Forse anche di questo bisognerebbe parlare, visto che cellulari, smartphone e tablet sono ormai parte integrante del corpo umano, vuoi per necessità, vuoi per ragioni di dipendenza (inutile negarlo), e la loro pulizia non è sempre curata con la stessa attenzione.


In realtà stiamo parlando di “igiene digitale” in sé e non di quella degli strumenti. Ed il perché è chiaro pensando all’igiene in senso tradizionale. Le sue regole vengono insegnate fin da bambini e sono tra le misure che più hanno contribuito negli ultimi due secoli ad allungare la durata della vita media. Invece nel mondo digitale (che appare virtuale ma a tutti gli effetti è reale) non si sente mai parlare di “norme d’igiene”. C’è chi con il termine “igiene digitale” si riferisce a come ci si relaziona con gli altri sui social oppure a come non diventare schiavi dei propri dispositivi. Invece, per noi si tratta proprio di norme analoghe a quelle dell’igiene fisica, opportune per prevenire malattie.

In questo ambito fu fondamentale la scoperta del medico ungherese Ignaz Semmelweis intorno alla metà dell’ottocento, grazie alla quale vennero salvate le vite di migliaia di donne. Egli osservò che, lavandosi le mani dopo aver fatto l’autopsia e prima di assistere le partorienti, la frequenza della loro mortalità diminuiva fortemente. Lavarsi le mani diventò il rito fondamentale con cui iniziare le operazioni chirurgiche. Non da subito purtroppo, dal momento che questa scoperta – come a volte avviene – richiese ancora qualche decina d’anni per essere accettate e diffondersi.

Per estensione, divenne la norma fondamentale insegnata a tutti i bambini: “làvati le mani”, era ed è l’intimazione dei genitori prima di mettersi a tavola, ed in generale ogni volta che si rientra a casa. L’assunto igienico fondamentale è che “là fuori” c’è un mondo che può essere ostile in termini di microbi e, a maggior ragione quando si tratta di far entrare qualcosa nel nostro corpo, è opportuno prendere delle contromisure.

Se però nel caso fisico può essere semplice far osservare ad un bambino riottoso lo sporco “sotto le unghie” e quindi convincerlo, per il mondo digitale, purtroppo, il passaggio è molto meno immediato. Quante persone, ad esempio, ancora oggi fanno entrare sul proprio dispositivo (PC, tablet, o smartphone) oggetti fisici (p.es., chiavette USB) o virtuali (p.es., allegati) senza la consapevolezza del loro poter essere “infetti”? È anche vero che l’evoluzione di questi “organismi digitali” è avvenuta con una velocità che l’umanità non ha mai incontrato finora: mentre per gli aspetti fisici la generazione degli attuali genitori ha potuto beneficiare dell’educazione in termini di igiene da parte dei loro genitori, per l’igiene digitale siamo stati tutti immersi di colpo nel giro di neanche vent’anni in un mondo per il quale non abbiamo i sensi adatti.

L’analogia comunque vale interamente: il mondo digitale è popolato di “forme di vita” (lasciateci passare questo termine) che non sempre sono benigne nei confronti nel nostro “io digitale”. Virus e worm ad esempio, continuano a diffondersi a ritmi impressionanti, e le precauzioni non sembrano essere mai sufficienti.

Certo, le regole d’igiene digitale possono essere fastidiose, limitare in alcuni casi il nostro raggio d’azione. Qualcuno dirà che possono apparire scontate e che è inutile stare a ripeterle. In realtà non sono pochi coloro che ancora oggi inseriscono chiavette altrui nei propri dispositivi informatici senza opportune verifiche.

Probabilmente il modo migliore per far capire, accettare ed applicare queste regole al contesto digitale è proprio quello di agganciarle concettualmente al mondo fisico: in questo modo le persone riuscirebbero a comprendere meglio che quello che accade nei loro pc e nei loro dispositivi mobili è reale e non virtuale.

In questi casi, c’è però da osservare che la terminologia impiegata non aiuta. Usare parole come “virtuale” o prefissi come “cyber” allontana le persone dalla reale percezione dei pericoli rispetto al mondo fisico, e fa erroneamente ritenere che le norme d’igiene digitale siano irrilevanti.

Ed è forse proprio da questo che si dovrebbe iniziare.

-----
Pubblicato su "Key4Biz" il 19 aprile 2017.

mercoledì 1 marzo 2017

Passeggeri, marinai o navigatori dell'oceano digitale?

di Enrico Nardelli

Chiunque abbia un po’ di ore di esperienza attiva in barca a vela, sa bene che una cosa è conoscere cosa vuol dire “poggiare” o “mollare la scotta” oppure sapere come fare per “dare volta alla cima sulla bitta” o “dare una mano di terzaroli”. Cosa diversa è stabilire la rotta e far arrivare alla sua destinazione un’imbarcazione a vela con tutto il suo equipaggio superando gli imprevisti. I primi sono “i marinai”, i secondi sono “i navigatori di lungo corso”. Tutti gli altri sono “passeggeri”, che pure devono essere informati su dove mettere mani e piedi e come affrontare il viaggio in sicurezza.

Ritengo che nella società contemporanea il “digitale” rivesta il ruolo che fino a due secoli fa rivestiva la navigazione a vela. Era una componente essenziale della prosperità di una società ed ogni nazione grande (in senso commerciale o militare) aveva di norma una grande flotta (commerciale o militare) di velieri, e viceversa. Avere bravi marinai e navigatori competenti era vitale. Il benessere della nazione dipendeva sia dalla quantità dei primi che dei secondi. Ma era ben chiara l’importanza di addestrare sia gli uni che gli altri.

In un post di ormai 3 anni fa avevo introdotto una distinzione tra alfabetizzazione digitale ed educazione digitale, che qui riprendo ed estendo utilizzando il contesto di questo parallelo con la marineria.

L’alfabetizzazione digitale (digital literacy in inglese) dovrebbe essere completamente compiuta, come l’alfabetizzazione propriamente detta, al più tardi al termine della scuola elementare. Così come la parte di alfabetizzazione che ha a che vedere con i numeri è basata sulla matematica, così la sua componente che ha a che vedere con il digitale deve essere basata sull’informatica. Nel paragone marinaresco, essa forma i passeggeri, perché comunque, per cavarsela a bordo di una nave, bisogna essere consapevoli del fatto che non si è più sulla terraferma. Detto così appare banale, perché non appena saliamo a bordo di un’imbarcazione tutti i nostri sensi ce lo dicono. Ma nel mondo digitale ci mancano "i sensi" adeguati. L’alfabetizzazione digitale fornisce le “competenze digitali di base” (basic digital skills fa più figo ma è la stessa cosa), essenziali per potersi orientare in quella “nave digitale” che è la società attuale.

L’educazione digitale, chiamata anche cittadinanza digitale e nota nel mondo anglosassone come digital fluency, è la capacità di muoversi del tutto a proprio agio in una comunità sociale pervasa di strumenti e dati digitali. La formazione di cittadini digitali, così come la formazione di cittadini tout court, dovrebbe essere completamente conclusa al più tardi al termine della scuola secondaria. A maggior ragione, essa è basata sull’insegnamento del nucleo scientifico-culturale dell’informatica, quello che chiamiamo pensiero computazionale. Questo livello di formazione produce i marinai, cioè quelli che nell’oceano digitale posseggono la digital fluency.

Una nota di cautela: spesso nelle discussioni mediatiche e politiche si usa il termine “competenze digitali” (digital skills) senza qualificare se si parli di quelle di base, prodotto dell’alfabetizzazione, o di quelle che rendono uno studente un vero “cittadino digitale”, ottenute al termine del percorso scolastico.

Voglio anche evidenziare il pericolo di affrontare la formazione delle competenze digitali senza fondarle sul pensiero computazionale. Temo che un tale approccio conduca a formare marinai che come diceva Leonardo da Vinci:

“… sono come i nocchieri che entrano in naviglio senza timone o bussola, che mai hanno certezza dove si vadano.”

Infine sottolineo l’importanza del terzo livello di formazione: quello dei navigatori, cioè degli specialisti. La loro formazione è compito del livello terziario dell’educazione (cioè dell’Università). A causa della pervasività delle tecnologie dell’informazione, per poter far sì che ci siano abbastanza studenti (e soprattutto studentesse) che vogliano diventare specialisti, è importante che l’informatica come disciplina scientifica sia correttamente introdotta nella scuola, in modo che tutti gli studenti possano acquisire confidenza con i suoi princìpi di base fin dai primi livelli di istruzione. Questo argomento, si badi bene, è aggiuntivo rispetto a quello che sostiene l’importanza di insegnare informatica nella scuola perché è la base scientifica sulla quale costruire il “cittadino digitale”.

Entrambi gli argomenti son ben chiari ai decisori politici negli USA che, al netto dell’enfasi mediatica sul coding, si sono mossi di conseguenza: si veda, ad esempio, l’iniziativa Informatica per tutti di Obama che ha inserito la “computer science” (cioè l’informatica) tra i well rounded subjects cioè nell’insieme delle materie che devono far parte dei programmi educativi scolastici e dei programmi di formazione professionale degli insegnanti.

E in Europa?

-----
Pubblicato su "Il Fatto Quotidiano" il 9 febbraio 2017.