ETICA E INTELLIGENZA ARTIFICIALE: DUE PAROLE CON VALTER FRACCARO

da

Che ci sia un futuro senza Intelligenza Artificiale, è cosa difficile da immaginare. È altresì facile immaginare come l’aspetto etico della tecnologia sarà sempre più centrale. Abbiamo fatto una lunga chiacchierata con Walter Fraccaro, esperto manager presidente del centro senese SAIHub, che questi temi li maneggia da molti anni: “L’IA senza etica non è vera intelligenza”.

VALTER FRACCARO, MI PRESENTO 

Ho cominciato molto giovane nel settore informatico e ho avuto due grandi fortune. La prima è stata quella di conoscere due grandi maestri in questi ormai quasi 40 anni di lavoro. La seconda è stata di occuparmi sempre di innovazione nel senso ampio del termine.

Nel corso della mia esperienza ho aperto due differenti aziende, una sulla gestione del dato scientifico e una sull’Intelligenza Artificiale come strumento per la ricerca scientifica, da quest’ultima è partito tutto.
Mi è sempre parso chiaro che ci fossero dei problemi molto tipici dell’IA, assenti nella stessa forma in altri ambiti. Parlo di problemi di logica, etica e anche di linguistica. Ad esempio, continuiamo a riferirci a ciò che fanno i computer con verbi propri degli umani: un computer impara oppure un computer risolve, termini che hanno molto a che fare in realtà con la filosofia. Per questo ho approcciato il mio approccio parte dalla filosofia, e credo ancora che sia la strada migliore. La filosofia ha un’origine molto parsistica molto legata ai fatti e i tempi odierni ci dimostrano questa assoluta sovrapposizione tra l’innovazione e il modo con cui la guardiamo, questo è assolutamente filosofia.

ETICA = BUSSOLA

La parola Etica in filosofia ha dei significati ben precisi, ma non vado in profondità. Piuttosto dico che l’etica è qualcosa che ha a che fare con la forma del divenire. È qualcosa attraverso cui guardiamo ai comportamenti umani e sociali e su cui la nostra specie basa il proprio futuro.
Cerchiamo di costruire il nostro futuro di persone e di gruppi sociali secondo un’etica, cioè secondo delle regole condivise.
Lo facciamo da sempre ed è la maniera che regola il nostro stare insieme e a come, sempre insieme, costruiamo il domani.
Lo spiego con un paragone. Pensiamo a un edificio. Noi lo abitiamo. Ma prima di realizzarlo va progettato, ossia si cerca di creare qualcosa che ci dica come sarà il futuro, come sarà l’edificio da finito. Ecco, nel momento della progettazione si rispettano delle regole, quelle che globalmente si chiamano statica; sono delle regole fisiche che ci dicono cosa può stare in piedi e può reggere nel tempo.
La statica sta all’edilizia come l’etica sta al nostro futuro. Cioè possiamo costruire solo cose che progettiamo prima, altrimenti tutto è una sequenza di eventi ingovernabili.


Abbiamo capito che il nostro modello sociale, in particolare quello economico, non è più funzionale alla nostra specie, abbiamo ottenuto grandissimi risultati ma ad un prezzo troppo alto che mina il nostro futuro. Ci stiamo incamminando in una direzione esattamente etica perché questo non accada più, proprio perché gestire l’oggi non comprometta il domani.


Questo è Il grande cambiamento in corso e, tutto sommato, l’innovazione tecnologica è il primo strumento che abbiamo per questo cambiamento, oltre alla condivisione sociale di certi nuovi valori prima assenti.


QUANTO È COMPLESSO CONCILIARE ETICA E RICERCA SULL’INNOVAZIONE

L’etica è una cosa pratica. Semplicemente non la nominiamo continuamente e se la nominiamo ci pare un ingrediente un po’ particolare del nostro vivere insieme. Io non vedo difficoltà a conciliare le due cose – etica e innovazione – anzi non le concilio proprio, sono una e l’altra, non ci può essere differenza. Riprendendo l’esempio di prima. Se costruiamo una casa senza badare alla statica ci casca addosso, così come se costruiamo un progetto di innovazione senza l’etica, ci casca addosso.

Considerare l’aspetto etico vuol dire considerare gli esiti di un progetto, in questo caso di evoluzione e cambiamento aziendale. 

Alcuni di questi esiti si vedono chiaramente. L’azienda lo fa per avere un risultato economico migliore, punto. 

Anche se quello è l’esito finale ma non è l’unico, ce ne sono molti altri intorno. C’è stato un tempo che sta rapidamente finendo in cui un progetto aziendale aveva solo un obiettivo finale, gli shareholder, quelle persone che si avvantaggiano del risultato economico dell’impresa. 

Ora è diverso, i benefici per gli shareholder ci sono solo quando sono contenti gli stakeholder, cioè tutte quelle persone interessate a quella determinata cosa.
Un esempio semplice. Se vado a comprare un prodotto, ma percepisco una lontananza di valori con l’azienda che lo ha realizzato, non acquisto quel prodotto. Credo che nessuno comprerebbe un pallone sapendo che è cucito a mano da un bambino nepalese segregato in uno stanzino 12 ore al giorno con un ago in mano.
Ecco dunque, il beneficio per l’azienda sta nel garantire su quei palloni, perché altrimenti non li vende.


Non c’è un obbligo di legge o qualcosa di simile, c’è proprio il tema della condivisione di valori sempre più profondi, radicati soprattutto nelle giovani generazioni. Tutto ciò che una volta si definiva economia lineare, funziona nell’economia di adesso che chiamiamo circolare – le cose non si buttano, e non solo le cose intese come materiali ma anche come persone.
In parole povere si sta cercando di costruire una società, noi tutti sul pianeta, nella quale non si “buttano via” le Persone.

LE AZIENDE COME POSSONO NAVIGARE IL PROCESSO DI MIGLIORAMENTO?

Al giorno d’oggi si può indirizzare la rotta grazie a due elementi che prima non c’erano, due “oggetti” nuovi. Il primo è la capacità di calcolo, la capacità di fare analisi con strumenti digitali. La seconda, che si innesca qui, è la grande massa di dati a disposizione – sono convinto che ancora in tutti i convegni si mostri la “famosa” slide con l’enorme sviluppo dei dati nel corso degli anni. La massa di dati in sé non dice nulla, ma la vera novità sta nel fatto che in quei dati ci siamo noi – come sottolinea spesso Maurizio Ferraris, docente di filosofia teoretica all’Università di Torino. 

Attraverso il web si è cominciato a registrare l’attività umana e delle macchine. Ed è per questo che siamo in grado di analizzare l’umanità, i comportamenti sociali e quelli economici, come mai fatto prima.

L’unione della potenza di calcolo e dell’enorme capacità di descrizione reale dell’umano e delle sue azioni, è sostanzialmente ciò che ha creato l’Intelligenza Artificiale per come la conosciamo. 
Questi strumenti ci consentono di guardare al mondo e di agire in maniera diversa.

Ecco perché l’Intelligenza Artificiale, e più in generale l’innovazione digitale, è una delle leve del cambiamento. Si parla di uno strumento nuovo, che consente di guardare a noi stessi in una nuova prospettiva e più precisa, e di cambiare comportamenti fino ad oggi dati per scontati. 

Nel farlo, stiamo trasformando anche la nostra etica. L’evoluzione tecnologica e il cambiamento etico vanno di pari passo dall’inizio della storia dell’umanità. 

Anche se noi come specie biologica facciamo un po’ fatica a rincorrere il cambiamento culturale con la stessa velocità. Lo vediamo nelle nuove generazioni che hanno una maggior velocità di comprensione delle trasformazioni in atto, rispetto a quelle che le hanno precedute.

IA E ETICA 

Il Report sull’IA dell’Università di Stanford, è particolare perché non si concentra solo sugli aspetti economici (soldi stanziati, numero di aziende che usano la tecnologia, etc), ma fotografa anche altro. Ad esempio monitora il numero delle leggi sull’IA varate nei vari Paesi del mondo, cerca di capire le tendenze nella visione della tecnologia, cosa ci si aspetta, e fa anche un’analisi molto particolareggiata sui temi di IA maggiormenti discussi nei convegni o oggetto di pubblicazioni scientifiche.

Il grande cambiamento registrato nel 2021 riguarda proprio l’Etica che si posiziona al primo posto come argomento di discussione – fino a pochi anni fa gli argomenti erano soprattutto tecnici e relativi a fenomeni che producono IA (Machine Learning, Deep Learning, etc).
Oggi ci si sta concentrando molto su cosa fare dell’Intelligenza, è un fenomeno così dirompente che difficilmente si può controllare con le leggi, è molto più opportuno che ci sia una tensione morale diffusa su questo.

elettricità

Per comprendere meglio la portata dell’azione faccio un altro esempio. A un certo punto nella storia arriva l’elettricità. La prima cosa che gli inglesi – possessori di questa tecnologia prima degli altri – fanno è sostituire i fuochi, usati allora come fari per la navigazione, con le lampadine. È una decisione etica.
Ossia. C’è questa novità, l’elettricità, cosa se ne fa? Si sceglie consapevolmente di migliorare la sicurezza dei naviganti.
Avrebbero potuto illuminare le case, invece hanno deciso diversamente.

Oggi siamo allo stesso punto, è il momento di decidere sull’IA. Cosa ne facciamo?

Voglio sottolineare come sia fondamentale l’aspetto di condivisione in relazione a questo tipo di scelta, un confronto soggettivo, ma legato a un fatto oggettivo.
Nel 2015 ben 190 paesi, tutti insieme, hanno sottoscritto gli obiettivi di sostenibilità dell’ONU, è stato un evento unico nella storia che ha coinvolto sostanzialmente l’intera umanità.
Si decide in quel caso di prendere una certa direzione, ciascuno con i propri mezzi e una propria velocità, ognuno con la sua cultura.

CONCEZIONE DELL’IA IN AMBITO AZIEDALE

Tornando in ambito aziendale. Penso che il punto più debole in relazione al processo di innovazione tecnologica in questo momento, siano i manager.
Non per colpa loro anzi, tutt’altro.
La questione è questa. L’Intelligenza Artificiale è stata sempre proposta in una maniera molto tecnica. Tornando all’esempio dell’elettricità. Se all’epoca alle imprese avessero parlato dell’elettricità come un flusso di elettroni che si sposta da un atomo, particelle, metalli, probabilmente ne saremo ancora sprovvisti.

Dell’IA se ne è parlato, e se ne parla, esattamente con quel tipo di taglio, o peggio. A volte viene definita una simulazione delle capacità del cervello, che non è vero.

L’IA che usiamo, quella convenzionale che sta veramente cambiando il mondo, è calcolo, non intelligenza col riferimento a quella umana.
Non è imitazione del cervello, è utilizzo del digitale per risolvere problemi prima non gestibili per le nostre limitatezze. Insomma una confusione terminologica e di punto di vista.

I manager oggi sono coloro che decidono dell’utilizzo o meno nelle imprese dell’IA, però spesso ne hanno una visione deteriorata da questa impalcatura di spiegazioni fin troppo tecniche. Inoltre, c’è l’abitudine a un tipo di innovazione digitale a piccoli passi, l’innovazione soprattutto informatica. Cambio, miglioro, ottimizzo dei processi dell’1%, 2%, 3% e cose così.
L’Intelligenza Artificiale ha invece dalla sua la capacità di risolvere problemi che fino al giorno prima non si potevano neanche affrontare, fa salti e non progressi lineari di un tassello alla volta.
Questo scarto informativo non è facile da intendere, e soprattutto da applicare.

Fondamentale è dare una visione più concreta di questi fenomeni, in modo che l’IA sia facilmente comprensibile e possa essere presa in considerazione come evoluzione dell’impresa.
In questo senso un cambiamento è in atto, e anno dopo anno l’atteggiamento sta mutando in maniera radicale.

Dall’altra parte duole dire che mancano le persone.
Per quel che vedo in giro ci sarebbe disponibilità ampia di ciò che si può fare in termini quantitativi.
Per questo l’attività di enti come SAIHub* è importante; si vuole promuovere la conoscenza diretta, la capacità professionale di agire con e sull’Intelligenza Artificiale.

Molti pensano che tecnologia e umanità siano in contrasto. In realtà non funziona così.
Spesso mi trovo a sfidare il mio interlocutore con la richiesta di indicare un mestiere che è stato automatizzato e che una persona vorrebbe, al giorno d’oggi, fare.
La risposta è che nessuno riesce a darmi una risposta.
Questo perché ciò che è stato automatizzato è un tipo di lavoro che con l’etica di adesso giudichiamo disumano. Chi vorrebbe andare con una mazza a spaccare le pietre? O trovarsi in situazioni di disagio o di pericolo.
Vero che abbiamo costruito l’automazione prima di tutto per un vantaggio economico, ma nel farlo sono stati eliminati molti lavori disumani, e si continua su questa strada.

Con l’IA si lascia alla persona la possibilità di eseguire lavori più umani e anche guadagnare più tempo per la propria vita.

LA RESPONSABILITÀ DELLE SCELTE DELL’UOMO

C’è un altro elemento. Come detto all’inizio, si continua a utilizzare per le macchine vocaboli che si riferiscono a comportamenti umani, e a raffigurarle come antropomorfe, come capaci di qualcosa, di decidere, scegliere, di esercitare una qualsivoglia volontà.
Le macchine non fanno niente di tutto ciò.
È uno dei grandi temi etici. Non va costruita una IA che decide, ma una in cui la responsabilità delle scelte resta alle persone, mentre quella di spiegare come sono arrivati a dare un certo risultato sta alle macchine.

Un esempio banalissimo. Quando faccio il bucato e mischio bianchi con colorati, non è la macchina cattiva se poi esce tutto rosa, sono stato io a fare l’errore.

La responsabilità è certamente mia, ma di norma siamo soliti attribuirla alla macchina, in quanto quest’ultima ha effettuato il lavaggio. La tecnologia l’abbiamo costruita e abbiamo adattato il mondo all’oggetto che si chiama lavatrice, nel senso che è fatta in un certo modo, usa un certo detersivo, etc.

L’IA è più simile a una lavatrice che a un cervello umano, è una cosa così. Ottiene un certo risultato che noi non avremmo avuto altrimenti.
Con le tecnologie va mantenuta la responsabilità. Il problema non è la macchina, il problema siamo noi perché spontaneamente sviluppiamo la tendenza ad allontanarci volentieri dalle responsabilità.

Per come la vedo io, questo è il vero pericolo, le macchine non vogliono responsabilità, le macchine non vogliono esattamente niente.

responsabilità

Molto oggettivamente, le macchine sono una cosa che se stacchi la spina dal muro non funziona più. Non hanno un senso di volontà – anche se qui il discorso è molto più lungo.

Stresso ancora il concetto. Il vero pericolo di questa tecnologia, a mio avviso, sta negli esseri umani, sta nella capacità di restare presenti a noi stessi e responsabili verso noi stessi e verso gli altri. In caso contrario, qualsiasi tecnologia diventa inadeguata e dannosa.


LA RESPONSABILITÀ DELLE INFORMAZIONI

C’è un’osservazione che ho captato giorni fa, tutto sommato banale ma che andrebbe portata a galla più spesso: siamo coscienti della presenza dell’ignoto, della presenza di cose di cui non abbiamo percezione, però sappiamo di poterle indagare e scoprire.
Non c’è un Ignoto che resterà tale per sempre.

La nostra storia ci insegna che ci sarà costanetemente qualcosa da scoprire, anche semplicemente perché continueremo a farci nuove domande. E ogni nuova domanda verrà indagata per trovare una risposta.
Questa è una forza incredibile di far cambiare il corso delle cose.
Concludo sottolineando com’è essenziale mantenere sempre uno sguardo positivo verso il cambiamento e non concentrato sul passato o sulle imperfezioni di questo mondo.

– – –

Il testo è tratto dall’intervista della serie Human & Tech pubblicata nel nostro canale YouTube.

VALTER FRACCARO – Presidente del centro senese per l’intelligenza artificiale SAIHub, riferimento nel campo di applicazione dell’Intelligenza Artificiale nella ricerca delle Scienze della Vita, sono advisor e formatore su AI e Sostenibilità per società private, fondazioni, studi di consulenza aziendale. Già manager di aziende italiane e internazionali, è anche stato direttore del Centro Sistemi Informativi dell’Università di Padova.
Ha fondato due imprese: la prima dedicata a progetti di innovazione digitale, la seconda specializzata nella gestione informatica di dati scientifici. Etica, design, sostenibilità: ogni innovazione sociale ed economica si basa oggi su questi tre elementi. Ne parla in giornali, convegni, lezioni rivolte a giovani, manager, scienziati e politici.


* SAIHub – Siena Artificial Intelligence Hub – è un partenariato divenuto Fondazione. Nasce nel 2020 a Siena con l’obiettivo ultimo di favorire lo sviluppo economico nell’area senese e toscana, caratterizzate da una grande rilevanza delle industrie nel settore delle scienze della vita.
Una realtà pensata per stimolare il networking e costruire un rapporto efficace tra le imprese, il mondo della ricerca e i centri di eccellenza. È formata da diversi attori: Comune di Siena, Confindustria Toscana Sud, Fondazione Toscana Life Sciences, Università di Siena e Fondazione Monte dei Paschi di Siena.
La sua rete si compone, ad oggi, di circa una trentina di aziende che si occupano di IA.
Un aspetto importatnte è relativo alla divulgazione della conoscenza sui temi legati all’IA, anche e soprattutto verso i ragazzi più giovani. Motivo per cui nel 2021 è stata creata la prima Summer School in Italia di IA applicata alle Life Science e dedicata ai ragazzi e ragazze di quarta superiore.

Blog

DUE PAROLE COL VINCITORE DEL TITOLO CODE CHAMPION 2022

DUE PAROLE COL VINCITORE DEL TITOLO CODE CHAMPION 2022

Le luci sul Code in the Dark si sono abbassate da poche settimane. Stessa location, ARGO 16, stesso format internazionale dedicato ai frontendisti, per un ritorno grandioso dopo i due anni forzati di stop, che registra una partecipazione di pubblico oltre ogni...

DESIGN FOR HUMANITY / PROGETTARE PER GLI ESSERI UMANI

DESIGN FOR HUMANITY / PROGETTARE PER GLI ESSERI UMANI

Quando si progetta un prodotto, la prima cosa che si fa è conoscere le persone che lo useranno.  I prodotti sono pensati per essere utilizzati da milioni di persone, ma in realtà ogni interazione tra il prodotto/fruitore è personale.  Spesso si tende a...