azione.ch
 



Dentro la scatola nera delle IA

Ricerca ◆ Intervista ad Alessandro Facchini che presso l’Istituto Dalle Molle si occupa di studiare buone pratiche e strategie per ridurre l’opacità del funzionamento dei sistemi di Intelligenze artificiali
/ 04/03/2024
Mattia Pelli

Guardare dentro la scatola nera delle Intelligenze artificiali. È uno degli obiettivi del lavoro di Alessandro Facchini, docente-ricercatore senior SUPSI, dal 2015 attivo presso l’Istituto Dalle Molle di studi sull’intelligenza artificiale (IDSIA USI-SUPSI). O meglio: quello di mettere a punto e fornire gli strumenti e i metodi che possano ridurre l’opacità del funzionamento dei sistemi di IA.

Quello dell’Explainable AI (abbreviato in XAI) è un settore nuovo della conoscenza che si sviluppa in parallelo ai sistemi di machine learning (di cui anche ChatGPT fa parte) per rispondere a un’esigenza umana: il diritto alla spiegazione. 

«Una delle questioni chiave legate allo sviluppo responsabile delle IA – spiega Alessandro Facchini – è la trasparenza. Ciò significa non solo il diritto ad avere accesso alla logica delle decisioni prese da una IA per arrivare a un certo risultato, ma anche quello di sapere su che dati è stata istruita. Se sai che un algoritmo è stato alimentato con dati relativi all’agricoltura del Nord Europa, saprai anche che se lo applichi nel Sud Italia rischierà di funzionare male».

Ma che cosa sono le intelligenze artificiali e perché si parla di «scatole nere» riferendosi ad esse? Il grande successo di questa tecnologia è dovuto alla sua straordinaria capacità di analizzare enormi quantità di dati e di identificare degli schemi, delle ricorrenze, che la mente umana da sola non potrebbe mai individuare. In questo modo, esse riescono a elaborare «predizioni», per esempio in campo medico, descrivendo con accuratezza il probabile decorso di una certa malattia. «In questo campo – spiega Alessandro Facchini – il diritto alla spiegazione significa poter rendere conto delle decisioni prese: un medico che utilizza una IA deve poter spiegare su che basi è arrivato a una diagnosi e il paziente deve avere la possibilità di saperlo».

Attualmente Alessandro Facchini sta dirigendo un progetto dal titolo «Strategie e buone pratiche per lo sviluppo e l’adozione di un’IA etica e affidabile in medicina» (B4EAI), che ha proprio lo scopo di supportare l’adozione e l’uso eticamente consapevole di sistemi di Intelligenza Artificiale nel settore clinico sanitario ticinese. Ed è proprio in contesti delicati come quello sanitario che l’opacità nel funzionamento dell’IA pone seri problemi di fiducia, anche perché questi agenti possono «barare». Noto è il caso di una IA che, piuttosto che imparare a capire se un cavallo fosse effettivamente raffigurato in un’immagine, ha imparato a cercare un’etichetta di copyright associata a immagini di cavalli. Stesso risultato, certo, ma ottenuto con un procedimento scorretto e alla lunga inaffidabile. Si pensi ad esempio a un’IA utilizzata per analizzare radiografie e altri dati di un paziente per proporre una diagnosi medica: non è solo importante il risultato ottenuto, ma anche la trasparenza sulle modalità con le quali vi si è arrivati.

Ma che cosa distingue un programma vecchia maniera da una moderna intelligenza artificiale basata sul machine learning? «Nel primo caso – spiega Alessandro Facchini – l’intelligenza ce la metti tu. Se si tratta di un software per il gioco degli scacchi, lo programmi come giocherebbe un buon giocatore. Con l’IA, invece, lasci alla macchina programmare la strategia attraverso i dati. Siamo quindi di fronte a un cambio di paradigma. Tu non sai cosa la macchina sta facendo, che strategia ha scelto: la logica dietro il modo di agire dell’IA non è più direttamente accessibile. Se si parla degli scacchi, magari la si può dedurre. Ma quando si è di fronte a un’enorme quantità di dati molto complessi, non è più umanamente possibile rendere intelligibile la logica che porta da un problema alla sua soluzione semplicemente osservando il comportamento della macchina».

E allora cosa si può fare? «Ci sono tecniche matematiche e algoritmiche che permettono di studiare e formulare spiegazioni relative alle decisioni prese dalle IA, ma ciò non significa che queste siano necessariamente quelle giuste. In un certo senso, si possono soltanto fare delle ipotesi, però delle ipotesi che almeno sono a noi comprensibili».

La questione della trasparenza è così importante da essersi fatta spazio nella legislazione dell’Unione europea che, con l’AI Act approvato in via preliminare lo scorso dicembre, ambisce ad essere la prima legge al mondo in questo ambito. La trasparenza diviene dunque un requisito fondamentale, in particolare, per i sistemi di IA ad alto rischio (quelli che potrebbero mettere in pericolo diritti fondamentali), che devono fornire informazioni chiare e comprensibili sulle loro capacità e limitazioni e rendere tracciabile il loro processo decisionale.

Siamo oggi di fronte a macchine predittive molto potenti, che possono essere di grande utilità ma che possono pure imparare a «barare». Una tendenza molto umana, quella ad aggirare i problemi invece che risolverli. Ma le IA non sono come noi: danno risultati utili, senza però spiegare il perché dei fenomeni analizzati. Le loro, al momento, sono «solo» inferenze statistiche, mentre la scienza è anche basata su teorie ed esperimenti. Per questo l’uso attuale delle intelligenze artificiali – secondo Alessandro Facchini – potrebbe andare ad intaccare alcuni aspetti del metodo scientifico, ostacolando per esempio l’obiettivo di comprendere e spiegare il fenomeno studiato che sta al centro della scienza moderna.

Insomma, usando le IA anche noi potremmo imparare a «barare», rischiando però di dimenticare il lavoro complesso e a volte frustrante connesso alla formulazione di teorie che spieghino il perché e il come di ciò che osserviamo attorno a noi. Ma l’essere umano ha anche un’altra caratteristica: la curiosità, che davanti a una scatola nera lo spinge a chiedersi che cosa c’è dentro e a indagare, fino a che il mistero non sia stato chiarito.