Softver i razvojni alati
Računalstvo, telefonija
Sigurnost
25.05.2023 13:00

Podijelite s drugima:

Udio

Znanstvenici istražuju kako bi razumjeli umjetnu inteligenciju

Istraživači su razvili inovativnu metodu za procjenu načina na koji umjetna inteligencija (AI) razumije podatke, poboljšavajući transparentnost i povjerenje u dijagnostičke i prediktivne alate temeljene na umjetnoj inteligenciji.
Fotografija: Unsplash
Fotografija: Unsplash

Ovaj pristup pomaže korisnicima da razumiju unutarnji rad "crnih kutija" algoritama umjetne inteligencije, posebno u medicinskoj upotrebi iu kontekstu nadolazećeg Europskog zakona o umjetnoj inteligenciji.

Tim istraživača sa Sveučilišta u Ženevi (UNIGE), Sveučilišnih bolnica u Ženevi (HUG) i Nacionalnog sveučilišta u Singapuru (NUS) razvio je novi pristup za procjenu razumijevanja tehnologija umjetne inteligencije.

Ovo otkriće omogućuje veću transparentnost i vjerodostojnost dijagnostičkih i prediktivnih alata koje pokreće AI. Nova metoda otkriva misteriozno djelovanje takozvanih "crnih kutija" AI algoritama, pomažući korisnicima da razumiju što utječe na rezultate koje AI proizvodi i može li im se vjerovati.

Ovo je posebno važno u scenarijima koji imaju značajan utjecaj na ljudsko zdravlje i dobrobit, kao što je upotreba umjetne inteligencije u medicinskom okruženju. Istraživanje ima posebno značenje u kontekstu nadolazećeg Zakona Europske unije o umjetnoj inteligenciji, koji nastoji regulirati razvoj i korištenje AI-a u EU-u.

Nalazi su nedavno objavljeni u časopisu Nature Machine Intelligence. Vremenski nizovi podataka koji predstavljaju razvoj informacija tijekom vremena prisutni su posvuda: primjerice u medicini pri snimanju srčane aktivnosti elektrokardiogramom (EKG), pri proučavanju potresa, praćenju vremenskih obrazaca ili u ekonomiji za praćenje financijskih tržišta.

Ti se podaci mogu modelirati pomoću AI tehnologija za izradu dijagnostičkih ili prediktivnih alata. Napredak u umjetnoj inteligenciji, a posebno dubinsko učenje, koje uključuje obuku stroja uz pomoć velikih količina podataka kako bi ih interpretirao i naučio korisne obrasce, otvaraju put sve preciznijim alatima za dijagnozu i predviđanje. Ipak, nedostatak uvida u to kako AI algoritmi rade i što utječe na njihove rezultate postavlja važna pitanja o pouzdanosti AI tehnologije "crne kutije".

"Način na koji ovi algoritmi rade je u najboljem slučaju netransparentan", kaže profesor Christian Lovis, ravnatelj Odsjeka za radiologiju i medicinsku informatiku na Medicinskom fakultetu UNIGE i voditelj Odsjeka za medicinske informacijske znanosti na HUG-u i jedan od autora studije o razumijevanju umjetne inteligencije.

“Naravno da su ulozi, pogotovo financijski, izuzetno veliki. Ali kako možemo vjerovati stroju bez razumijevanja osnove njegovog razmišljanja? Ta su pitanja ključna, posebno u sektorima poput medicine, gdje odluke vođene umjetnom inteligencijom mogu utjecati na zdravlje ljudi, pa čak i njihove živote, te u financijama, gdje mogu dovesti do velikih gubitaka kapitala.”

Metode razumijevanja nastoje odgovoriti na ova pitanja otkrivajući zašto i kako je umjetna inteligencija došla do određene odluke i razloge iza nje. "Poznavanje elemenata koji su preokrenuli vagu na vagu u korist ili protiv rješenja u određenoj situaciji, dopuštajući barem nešto transparentnosti, povećava naše povjerenje u izvedbu alata", kaže docent Gianmarco Mengaldo, ravnatelj laboratorija MathEXLab na Fakultetu. dizajna i inženjerstva, Nacionalno sveučilište u Singapuru.

„Međutim, trenutne metode razumijevanja koje se široko koriste u praktičnim primjenama i industrijskim krugovima daju vrlo različite rezultate, čak i kada se primjenjuju na isti zadatak i skup podataka. Ovo postavlja važno pitanje: koja je metoda točna ako bi trebao postojati jedinstven, točan odgovor? Stoga procjena metoda razumijevanja postaje jednako važna kao i samo razumijevanje?”

razumijevanje umjetne inteligencije ChatGPT Google Bard

Razlikovanje važnih i nebitnih informacija

Razlikovanje podataka ključno je u razvoju AI tehnologija za njihovo potpuno razumijevanje. Na primjer, kada AI analizira slike, fokusira se na nekoliko istaknutih značajki.

Doktorand u laboratoriju profesora Lovisa i prvi autor AI studije Hugues Turbé objašnjava: “Na primjer, AI može razlikovati sliku psa od slike mačke. Isti princip vrijedi i za analizu vremenskih sekvenci: stroj mora biti u stanju odabrati elemente na temelju kojih će razmišljati. U slučaju EKG signala, to znači koordinaciju signala s različitih elektroda kako bi se procijenile moguće fluktuacije koje bi bile znak određene bolesti srca."

Nije lako odabrati metodu razumijevanja između svih dostupnih za određenu svrhu. Različite metode umjetne inteligencije često daju vrlo različite rezultate, čak i kada se primjenjuju na isti skup podataka i zadatak.

Kako bi odgovorili na ovaj izazov, istraživači su razvili dvije nove metode evaluacije koje pomažu razumjeti kako umjetna inteligencija donosi odluke: jednu za prepoznavanje najvažnijih dijelova signala, a drugu za procjenu njihove relativne važnosti za konačno predviđanje.

Kako bi procijenili razumijevanje, sakrili su dio podataka kako bi vidjeli jesu li relevantni za donošenje odluka umjetnom inteligencijom. Međutim, ovaj pristup je ponekad dovodio do pogrešaka u rezultatima. Kako bi to popravili, uvježbali su stroj na proširenom skupu podataka koji uključuje skrivene podatke, što je pomoglo u održavanju ravnoteže i točnosti. Tim je potom stvorio dva načina za mjerenje izvedbe metoda razumijevanja, pokazujući je li AI koristila prave podatke za donošenje odluka i jesu li svi podaci ispravno uzeti u obzir.

"Naša metoda ima za cilj procijeniti model koji ćemo stvarno koristiti u našem operativnom području, čime se osigurava njegova pouzdanost", objašnjava Hugues Turbé. Kako bi nastavio istraživanje, tim je razvio sintetički skup podataka koji je dostupan znanstvenoj zajednici za jednostavnu procjenu bilo koje nove umjetne inteligencije dizajnirane za tumačenje sekvenci tijekom vremena.

Budućnost umjetne inteligencije u medicini

Tim planira testirati svoju metodu u kliničkom okruženju, gdje je strah od umjetne inteligencije još uvijek raširen. "Izgradnja povjerenja u procjenu umjetne inteligencije ključni je korak prema usvajanju u kliničkim okruženjima", objašnjava dr. Mina Bjelogrlic, koja vodi tim za strojno učenje u Lovisovom odjelu i koautorica je ove studije. “Naše istraživanje usredotočeno je na procjenu umjetne inteligencije na temelju vremenskih sekvenci, ali ista se metodologija može primijeniti na umjetnu inteligenciju temeljenu na drugim vrstama podataka, kao što su slikovni ili tekstualni podaci. Cilj je osigurati transparentnost, razumljivost i pouzdanost AI za korisnike.”

Razumijevanje unutarnjeg funkcioniranja umjetne inteligencije ključno je za izgradnju povjerenja u njezinu upotrebu, posebno u kritičnim sektorima kao što su medicina i financije. Istraživanje koje je proveo tim istraživača sa Sveučilišta u Ženevi i Nacionalnog sveučilišta u Singapuru nudi inovativnu metodu procjene razumijevanja umjetne inteligencije koja pomaže korisnicima da razumiju zašto i kako se donose odluke. Ovaj je pristup osobito važan za medicinske primjene, gdje odluke koje donosi umjetna inteligencija mogu biti opasne po život.


Zanima vas više o ovoj temi?
ChatGPT Google umjetna inteligencija


Što drugi čitaju?