Spiegare l’intelligenza artificiale, per passare dall’automazione alla cooperazione

di Serafino Salatino e Matteo Troìa

Introduzione

Le previsioni meteo

Nelle ultime settimane, il clima della nostra penisola è particolarmente coinvolto in un aumento di temperature che non si verificava da molti anni. In alcune città si sono raggiunti dei picchi di caldo che mai ci si aspettava di raggiungere, complice il cambiamento climatico che ci costringe ad agire in fretta per mitigare questo fenomeno.

Le previsioni meteo sono un esempio di utilizzo del machine learning con cui abbiamo a che fare tutti i giorni, poiché provano a fare delle previsioni sul tempo che farà il giorno successivo e le settimane a venire.

Quando pensiamo alle previsioni metereologiche, non ci chiediamo perché domani hanno previsto sole né perché domani hanno previsto la pioggia. Accettiamo di buon grado quel che ci dicono, per constatare semmai che il tempo previsto non si è rivelato quello che effettivamente ci troviamo fuori dalla finestra.

L’esigenza di spiegare i risultati ottenuti

Negli ultimi anni, lo sviluppo di algoritmi di machine learning ha portato alla creazione di sistemi capaci di ottenere ottime performance nei vari task a cui vengono applicati. I campi di applicazione sono aumentati fino a toccare svariati rami del sapere: dalla medicina alla fisica, dalla logistica ai processi di produzione passando per lo sport, le risorse umane e moltissimi altri settori.

Lo sviluppo di algoritmi sempre più sofisticati, la pervasività delle loro applicazioni e la difficoltà dei problemi che sono chiamati a risolvere, hanno stimolato lo sviluppo di modelli che per quanto efficaci risultano sempre più complessi. È oggi consuetudine utilizzare il termine “black-box” per descrivere quegli algoritmi in grado di restituirci una serie di output senza spiegarci il come o il perché, proprio come se i dati elaborati transitassero dentro ad una scatola nera rispetto alla quale non ci è data l’opportunità di guardare dentro.

La letteratura scientifica riconosce un tradeoff tra le performance di un algoritmo e la sua interpretabilità, tuttavia questo non ci deve scoraggiare dal cercare spiegazioni alle scelte algoritmiche con cui ci interfacciamo ogni giorno.

Questa necessità è condivisa anche dalla Comunità Europea, tanto che nel documento “Ethics guidelines for trustworthy AI ” redatto da un gruppo di massimi esperti, rimarca la necessità di costruire sistemi di intelligenza artificiali trasparenti, in grado cioè di rispettare i concetti chiave di Traceability (documentare la provenienza e il lineage dei dati), Explainability (essere in grado di spiegare quali sono stati i fattori che hanno portato ad un determinato risultato) e Communication (informare l’utente che è stato “servito” da un sistema di AI e non da un essere umano e che le decisioni prese dall’AI rispettano i diritti fondamentali dell’uomo).

Ecco perché la nuova virtù dei data-expert di oggi non sta solo nella capacità di fare previsioni, ma nella capacità di spiegare il perché e il come quelle previsioni sono state ottenute.


Perché è importante la spiegabilità

Cos’è la spiegabilità

La “spiegabilità” dei modelli diventa un “must” in un’epoca in cui un modello di AI a supporto di un medico potrebbe diagnosticare una malattia ad un paziente e diventare quindi un decisore importante, molto più importante e critico della persona che ci informa delle previsioni metereologiche delle prossime settimane.

Soprattutto nei casi critici, dove le conseguenze di una scelta fatta hanno delle ricadute significative per le nostre vite o per un determinato processo, comprendere il come e il perché un certo sistema di AI ha restituito un certo risultato è molto importante.

Ma cosa intendiamo per spiegabilità o, in maniera intercambiabile, interpretabilità?

Secondo la definizione del matematico Tim Miller, professore dell’Università di Melblourne, “interpretability is the degree to which a human can understand the cause of a decision.

Questa definizione è molto interessante poiché sposta il controllo dall’algoritmo all’essere umano. Questo cambio di prospettiva dovrebbe anche farci riflettere su come definizioni come queste salvaguardino la centralità della donna e dell’uomo a sfavore delle teorie che sostengono il sopravvento di mostruose intelligenze artificiali.

Perché è importante

Perché è importante capire la causa di una decisione?

Abbiamo provato ad elencare una serie di motivazioni che rendono importante spiegare il processo e le variabili che hanno condotto un algoritmo a prendere una certa decisione.

  • Nonostante gli algoritmi possano sembrare complessi, spesso gli output risultano molto facili da leggere per un essere umano. Spesso gli algoritmi di previsione restituiscono un valore binario (1/0), in altri casi forniscono una determinata categoria (pioggia, sole, nuvoloso, temporale…) e in altri casi ancora forniscono dei numeri attinenti con le serie storiche che vanno ad analizzare. A questo punto, aiutati dalla facilità di lettura degli output e consapevoli delle variabili che giocano un ruolo chiave nel processo algoritmico, è possibile modellare l’input, simulando previsioni differenti a seconda dei dati di ingresso che l’essere umano fornirà all’algoritmo in maniera consapevole.
  • Capire le cause che hanno condotto ad una determinata previsione permette all’essere umano di incrementare la fiducia verso i sistemi di AI, poiché ciò che si comprende, si accetta più facilmente. La parola fiducia è ritenuta molto importante anche dalla Commissione Europea che dedica ampio spazio al tema.
  • Un modello spiegabile è un modello in cui l’individuazione degli errori è facilitata, soprattutto in relazione alle variabili utilizzate e al modo con cui sono state costruite.
  • Un modello spiegabile permette di passare dall’idea che “l’algoritmo ha stabilito che” ad un approccio del tipo “questi sono i motivi per cui”, portando benefici non solo ai team tecnici ma anche al mondo del business, che viene coinvolto nel processo di costruzione di un sistema di intelligenza artificiale.
  • Ultimo punto di questa proposta di motivazioni è legato alla fairness, ovvero alla capacità di un algoritmo di “essere giusto”, ovvero di saper restituire delle previsioni il più possibile prive di pregiudizi (bias). L’explainability aiuta molto anche in questo senso.

Spiegare i risultati al business

Chiunque si occupi di dati in un contesto lavorativo reale, si sarà accorto che le competenze tecniche non sono sufficienti. Sempre di più gli esperti di dati sono chiamati a relazionarsi con il mondo del business che è fatto, tendenzialmente, di persone con competenze e prospettive diverse da quelle degli sviluppatori di sistemi di AI.

Spiegare i risultati ottenuti ad un team di profili non tecnici diventa quindi un requisito chiave per chi lavora con i dati oggi.

Come descrivono bene Greg Satell e Josh Sutton nell’articolo “We Need AI That Is Explainable, Auditable, and Transparent” pubblicato sull’Harward Business Review, “perhaps most of all, we need to shift from a culture of automation to augmentation. Artificial intelligence works best not as some sort of magic box you use to replace humans and cut costs, but as a force multiplier that you use to create new value. By making AI more explainable, auditable and transparent, we can not only make our systems more fair, we can make them vastly more effective and more useful.”        

Le figure tecniche e le figure “di business” devono quindi cooperare insieme per rendere i sistemi di AI più efficaci e più utili. La sfida è per l’appunto passare dall’automazione al potenziamento, all’aumento delle nostre capacità di comprendere e di spiegare, aiutati dalle tecniche di explainability, per liberare tutta la potenza dell’intelligenza artificiale a nostro vantaggio.


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *