Software e strumenti di sviluppo
Informatica, telefonia
Sicurezza
25.05.2023 13:00

Condividi con gli altri:

Condividere

Gli scienziati stanno facendo ricerche per comprendere l’intelligenza artificiale

I ricercatori hanno sviluppato un metodo innovativo per valutare il modo in cui l’intelligenza artificiale (AI) comprende i dati, migliorando la trasparenza e la fiducia negli strumenti diagnostici e predittivi basati sull’intelligenza artificiale.
Foto: Unsplash
Foto: Unsplash

Ta pristop pomaga uporabnikom razumeti notranje delovanje “črnih škatel” algoritmov umetne inteligence, zlasti v medicinski rabi in v kontekstu prihajajočega evropskega Akta o umetni inteligenci.

Un team di ricercatori dell’Università di Ginevra (UNIGE), degli Ospedali universitari di Ginevra (HUG) e dell’Università nazionale di Singapore (NUS) ha sviluppato un nuovo approccio per valutare la comprensione delle tecnologie di intelligenza artificiale.

Ta preboj omogoča večjo preglednost in verodostojnost diagnostičnih in napovednih orodij, ki jih poganja AI. Nova metoda razkriva skrivnostno delovanje tako imenovanih “črnih škatel” algoritmov AI, kar uporabnikom pomaga razumeti, kaj vpliva na rezultate, ki jih AI ustvarja, in ali jim je mogoče zaupati.

Ciò è particolarmente importante in scenari che hanno un impatto significativo sulla salute e sul benessere umano, come l’uso dell’intelligenza artificiale in ambito medico. La ricerca ha un significato particolare nel contesto dell’imminente legge sull’intelligenza artificiale dell’Unione europea, che cerca di regolamentare lo sviluppo e l’uso dell’intelligenza artificiale nell’UE.

Ugotovitve so bile nedavno objavljene v reviji Nature Machine Intelligence. Časovne vrste podatkov, ki predstavljajo razvoj informacij skozi čas, so prisotne povsod: na primer v medicini pri beleženju srčne dejavnosti z elektrokardiogramom (EKG), pri proučevanju potresov, sledenju vremenskim vzorcem ali v gospodarstvu za spremljanje finančnih trgov.

Te podatke je mogoče modelirati z uporabo tehnologij AI za izgradnjo diagnostičnih ali napovednih orodij. Napredek AI in predvsem globokega učenja, ki vključuje usposabljanje stroja s pomočjo velikih količin podatkov z namenom njihove interpretacije in učenja uporabnih vzorcev, odpira pot k vse bolj natančnim orodjem za diagnozo in napoved. Kljub temu pa pomanjkanje vpogleda v to, kako delujejo algoritmi AI in kaj vpliva na njihove rezultate, postavlja pomembna vprašanja o zanesljivosti tehnologije “črne škatle” AI.

»Način delovanja teh algoritmov je v najboljšem primeru netransparenten,” pravi profesor Christian Lovis, direktor oddelka za radiologijo in medicinsko informatiko na Medicinski fakulteti UNIGE ter vodja oddelka za medicinsko informacijsko znanost na HUG in eden izmed avtorjev študije o razumevanju AI.

"Naturalmente la posta in gioco, soprattutto quella finanziaria, è estremamente alta. Ma come possiamo fidarci di una macchina senza comprendere le basi del suo ragionamento? Queste domande sono cruciali, soprattutto in settori come la medicina, dove le decisioni guidate dall’intelligenza artificiale possono influenzare la salute delle persone e persino la loro vita, e nella finanza, dove possono portare a enormi perdite di capitale”.

Metode razumevanja si prizadevajo odgovoriti na ta vprašanja z razkrivanjem, zakaj in kako je AI prišla do določene odločitve ter razlogov za to. »Poznavanje elementov, ki so prevesili tehtnico v prid ali proti rešitvi v določeni situaciji, kar omogoča vsaj nekaj preglednosti, povečuje naše zaupanje v delovanje orodij,” pravi docent Gianmarco Mengaldo, direktor laboratorija MathEXLab na Fakulteti za oblikovanje in inženiring Nacionalne univerze v Singapurju.

“Tuttavia, gli attuali metodi di comprensione ampiamente utilizzati nelle applicazioni pratiche e nei circuiti industriali producono risultati molto diversi, anche se applicati allo stesso compito e allo stesso set di dati. Ciò solleva una domanda importante: quale metodo è corretto se si suppone che ci sia una risposta unica e corretta? Pertanto, la valutazione dei metodi di comprensione sta diventando importante quanto la comprensione stessa?

comprendere l'intelligenza artificiale ChatGPT Google Bard

Distinguere tra informazioni importanti e irrilevanti

Differenziare i dati è fondamentale per sviluppare tecnologie di intelligenza artificiale per comprenderli appieno. Ad esempio, quando l’intelligenza artificiale analizza le immagini, si concentra su alcune caratteristiche salienti.

Hugues Turbé, dottorando nel laboratorio del professor Lovis e primo autore dello studio sull'intelligenza artificiale, spiega: “Ad esempio, l'intelligenza artificiale può distinguere tra l'immagine di un cane e l'immagine di un gatto. Lo stesso principio vale per l'analisi delle sequenze temporali: la macchina deve essere in grado di selezionare gli elementi su cui ragionare. Nel caso dei segnali ECG, ciò significa coordinare i segnali provenienti da diversi elettrodi per valutare possibili fluttuazioni che potrebbero essere un segno di una certa malattia cardiaca."

Scegliere un metodo di comprensione tra tutti quelli disponibili per un particolare scopo non è facile. Diversi metodi di intelligenza artificiale spesso forniscono risultati molto diversi, anche se applicati allo stesso set di dati e allo stesso compito.

Per affrontare questa sfida, i ricercatori hanno sviluppato due nuovi metodi di valutazione per aiutare a comprendere come l’intelligenza artificiale prende le decisioni: uno per identificare le parti più importanti del segnale e l’altro per valutare la loro importanza relativa per la previsione finale.

Per valutare la comprensione, hanno nascosto parte dei dati per vedere se erano rilevanti per il processo decisionale sull’IA. Tuttavia, questo approccio talvolta produceva errori nei risultati. Per risolvere questo problema, hanno addestrato la macchina su un set di dati aumentato che include dati nascosti, che hanno contribuito a mantenere equilibrio e precisione. Il team ha poi creato due modi per misurare le prestazioni dei metodi di comprensione, mostrando se l’IA stava utilizzando i dati giusti per prendere decisioni e se tutti i dati erano stati adeguatamente considerati.

"Il nostro metodo mira a valutare il modello che utilizzeremo effettivamente nel nostro ambito operativo, garantendone così l'affidabilità", spiega Hugues Turbé. Per continuare la ricerca, il team ha sviluppato un set di dati sintetici a disposizione della comunità scientifica per valutare facilmente qualsiasi nuova intelligenza artificiale progettata per interpretare sequenze nel tempo.

Il futuro dell’intelligenza artificiale in medicina

Il team prevede di testare il proprio metodo in un contesto clinico, dove la paura dell’intelligenza artificiale è ancora diffusa. "Costruire la fiducia nella valutazione dell'IA è un passo fondamentale verso l'adozione in contesti clinici", spiega il Dott. Mina Bjelogrlic, che guida il team di machine learning nella divisione Lovis ed è coautrice di questo studio. “La nostra ricerca si concentra sulla valutazione dell’intelligenza artificiale basata su sequenze temporali, ma la stessa metodologia potrebbe essere applicata all’intelligenza artificiale basata su altri tipi di dati, come dati di immagini o testo. L’obiettivo è garantire trasparenza, comprensibilità e affidabilità dell’intelligenza artificiale per gli utenti”.

Comprendere il funzionamento interno dell’intelligenza artificiale è fondamentale per creare fiducia nel suo utilizzo, soprattutto in settori critici come la medicina e la finanza. La ricerca, condotta da un team di ricercatori dell’Università di Ginevra e dell’Università Nazionale di Singapore, offre un metodo innovativo per valutare la comprensione dell’intelligenza artificiale che aiuta gli utenti a capire perché e come vengono prese le decisioni. Questo approccio è particolarmente importante per le applicazioni mediche, dove le decisioni prese dall’intelligenza artificiale possono essere pericolose per la vita.


Ti interessa saperne di più su questo argomento?
ChatGPT Google intelligenza artificiale


Cosa stanno leggendo gli altri?

_struttura('