Software e strumenti di sviluppo
Informatica, telefonia
Sicurezza
25.05.2023 13:00

Condividi con gli altri:

Condividere

Gli scienziati stanno facendo ricerche per comprendere l’intelligenza artificiale

I ricercatori hanno sviluppato un metodo innovativo per valutare il modo in cui l’intelligenza artificiale (AI) comprende i dati, migliorando la trasparenza e la fiducia negli strumenti diagnostici e predittivi basati sull’intelligenza artificiale.
Foto: Unsplash
Foto: Unsplash

Questo approccio aiuta gli utenti a comprendere il funzionamento interno delle “scatole nere” degli algoritmi di intelligenza artificiale, soprattutto nell’uso medico e nel contesto dell’imminente atto europeo sull’intelligenza artificiale.

Un team di ricercatori dell’Università di Ginevra (UNIGE), degli Ospedali universitari di Ginevra (HUG) e dell’Università nazionale di Singapore (NUS) ha sviluppato un nuovo approccio per valutare la comprensione delle tecnologie di intelligenza artificiale.

Questa svolta consente una maggiore trasparenza e credibilità degli strumenti diagnostici e predittivi basati sull’intelligenza artificiale. Il nuovo metodo rivela il misterioso funzionamento delle cosiddette “scatole nere” degli algoritmi di intelligenza artificiale, aiutando gli utenti a capire cosa influenza i risultati prodotti dall’intelligenza artificiale e se ci si può fidare di loro.

Ciò è particolarmente importante in scenari che hanno un impatto significativo sulla salute e sul benessere umano, come l’uso dell’intelligenza artificiale in ambito medico. La ricerca ha un significato particolare nel contesto dell’imminente legge sull’intelligenza artificiale dell’Unione europea, che cerca di regolamentare lo sviluppo e l’uso dell’intelligenza artificiale nell’UE.

I risultati sono stati recentemente pubblicati sulla rivista Nature Machine Intelligence. Serie temporali di dati che rappresentano lo sviluppo delle informazioni nel tempo sono presenti ovunque: ad esempio in medicina quando si registra l'attività cardiaca con un elettrocardiogramma (ECG), quando si studiano i terremoti, si monitorano i modelli meteorologici o in economia per monitorare i mercati finanziari.

Questi dati possono essere modellati utilizzando le tecnologie di intelligenza artificiale per creare strumenti diagnostici o predittivi. I progressi nell’intelligenza artificiale e in particolare nel deep learning, che prevede l’addestramento di una macchina con l’aiuto di grandi quantità di dati per interpretarli e apprendere modelli utili, stanno aprendo la strada a strumenti sempre più accurati per la diagnosi e la previsione. Tuttavia, la mancanza di informazioni su come funzionano gli algoritmi di intelligenza artificiale e su cosa influenza i loro risultati solleva importanti domande sull’affidabilità della tecnologia di intelligenza artificiale “scatola nera”.

"Il modo in cui funzionano questi algoritmi è, nella migliore delle ipotesi, non trasparente", afferma il professor Christian Lovis, direttore del Dipartimento di radiologia e informatica medica presso la Facoltà di Medicina dell'UNIGE e capo del Dipartimento di scienza dell'informazione medica presso l'HUG e uno degli autori dello studio sulla comprensione dell’intelligenza artificiale.

"Naturalmente la posta in gioco, soprattutto quella finanziaria, è estremamente alta. Ma come possiamo fidarci di una macchina senza comprendere le basi del suo ragionamento? Queste domande sono cruciali, soprattutto in settori come la medicina, dove le decisioni guidate dall’intelligenza artificiale possono influenzare la salute delle persone e persino la loro vita, e nella finanza, dove possono portare a enormi perdite di capitale”.

I metodi di comprensione cercano di rispondere a queste domande rivelando perché e come l’IA è arrivata a una particolare decisione e le ragioni dietro di essa. "Conoscere gli elementi che hanno fatto pendere l'ago della bilancia a favore o contro una soluzione in una determinata situazione, consentendo almeno una certa trasparenza, aumenta la nostra fiducia nella performance degli strumenti", afferma il ricercatore Gianmarco Mengaldo, direttore del MathEXLab della Facoltà di Scienze Design e ingegneria, Università Nazionale di Singapore.

“Tuttavia, gli attuali metodi di comprensione ampiamente utilizzati nelle applicazioni pratiche e nei circuiti industriali producono risultati molto diversi, anche se applicati allo stesso compito e allo stesso set di dati. Ciò solleva una domanda importante: quale metodo è corretto se si suppone che ci sia una risposta unica e corretta? Pertanto, la valutazione dei metodi di comprensione sta diventando importante quanto la comprensione stessa?

comprendere l'intelligenza artificiale ChatGPT Google Bard

Distinguere tra informazioni importanti e irrilevanti

Differenziare i dati è fondamentale per sviluppare tecnologie di intelligenza artificiale per comprenderli appieno. Ad esempio, quando l’intelligenza artificiale analizza le immagini, si concentra su alcune caratteristiche salienti.

Hugues Turbé, dottorando nel laboratorio del professor Lovis e primo autore dello studio sull'intelligenza artificiale, spiega: “Ad esempio, l'intelligenza artificiale può distinguere tra l'immagine di un cane e l'immagine di un gatto. Lo stesso principio vale per l'analisi delle sequenze temporali: la macchina deve essere in grado di selezionare gli elementi su cui ragionare. Nel caso dei segnali ECG, ciò significa coordinare i segnali provenienti da diversi elettrodi per valutare possibili fluttuazioni che potrebbero essere un segno di una certa malattia cardiaca."

Scegliere un metodo di comprensione tra tutti quelli disponibili per un particolare scopo non è facile. Diversi metodi di intelligenza artificiale spesso forniscono risultati molto diversi, anche se applicati allo stesso set di dati e allo stesso compito.

Per affrontare questa sfida, i ricercatori hanno sviluppato due nuovi metodi di valutazione per aiutare a comprendere come l’intelligenza artificiale prende le decisioni: uno per identificare le parti più importanti del segnale e l’altro per valutare la loro importanza relativa per la previsione finale.

Per valutare la comprensione, hanno nascosto parte dei dati per vedere se erano rilevanti per il processo decisionale sull’IA. Tuttavia, questo approccio talvolta produceva errori nei risultati. Per risolvere questo problema, hanno addestrato la macchina su un set di dati aumentato che include dati nascosti, che hanno contribuito a mantenere equilibrio e precisione. Il team ha poi creato due modi per misurare le prestazioni dei metodi di comprensione, mostrando se l’IA stava utilizzando i dati giusti per prendere decisioni e se tutti i dati erano stati adeguatamente considerati.

"Il nostro metodo mira a valutare il modello che utilizzeremo effettivamente nel nostro ambito operativo, garantendone così l'affidabilità", spiega Hugues Turbé. Per continuare la ricerca, il team ha sviluppato un set di dati sintetici a disposizione della comunità scientifica per valutare facilmente qualsiasi nuova intelligenza artificiale progettata per interpretare sequenze nel tempo.

Il futuro dell’intelligenza artificiale in medicina

Il team prevede di testare il proprio metodo in un contesto clinico, dove la paura dell’intelligenza artificiale è ancora diffusa. "Costruire la fiducia nella valutazione dell'IA è un passo fondamentale verso l'adozione in contesti clinici", spiega il Dott. Mina Bjelogrlic, che guida il team di machine learning nella divisione Lovis ed è coautrice di questo studio. “La nostra ricerca si concentra sulla valutazione dell’intelligenza artificiale basata su sequenze temporali, ma la stessa metodologia potrebbe essere applicata all’intelligenza artificiale basata su altri tipi di dati, come dati di immagini o testo. L’obiettivo è garantire trasparenza, comprensibilità e affidabilità dell’intelligenza artificiale per gli utenti”.

Comprendere il funzionamento interno dell’intelligenza artificiale è fondamentale per creare fiducia nel suo utilizzo, soprattutto in settori critici come la medicina e la finanza. La ricerca, condotta da un team di ricercatori dell’Università di Ginevra e dell’Università Nazionale di Singapore, offre un metodo innovativo per valutare la comprensione dell’intelligenza artificiale che aiuta gli utenti a capire perché e come vengono prese le decisioni. Questo approccio è particolarmente importante per le applicazioni mediche, dove le decisioni prese dall’intelligenza artificiale possono essere pericolose per la vita.


Ti interessa saperne di più su questo argomento?
ChatGPT Google intelligenza artificiale


Cosa stanno leggendo gli altri?