Razumevanje zakona EU o AI: prelomni korak pri regulaciji umetne inteligence
																																	Zakon EU o umetni inteligenci bo preoblikoval način, kako podjetja uvajajo, uporabljajo in razvijajo sisteme umetne inteligence. Kaj to pomeni za vašo organizacijo, kako bo to vplivalo na vašo uporabo umetne inteligence in ali lahko ostanete skladni s predpisi?
Hitro uvajanje umetne inteligence v poslovnem svetu ima potencial za znatno povečanje produktivnosti in zagotavljanje dragocene podpore zaposlenim. Po podatkih Eurostata umetno inteligenco že uporablja 42 % velikih podjetij (z več kot 250 zaposlenimi), medtem ko jo je začelo uvajati 13 % manjših podjetij (z več kot 10 zaposlenimi). Vendar pa se z razvojem in širjenjem tehnologij AI povečujejo tudi tveganja, od zaskrbljenosti glede varstva podatkov zaradi obsežnih podatkovnih naborov, do zlorab v kibernetskih napadih, algoritmične pristranskosti, kršitev zasebnosti in etičnih vprašanj, kot so manipulacija in ogrožanje človekovih pravic.
V odgovor na to je EU uvedla prvo celovito zakonodajo o umetni inteligenci na svetu – evropski zakon o umetni inteligenci (AI Act) –, da bi zagotovila odgovoren razvoj in uporabo umetne inteligence ter hkrati zaščitila zdravje, varnost in temeljne pravice državljanov.
Kaj je torej zakon EU o umetni inteligenci in zakaj je pomemben za podjetja in družbo?
Kaj je zakon EU o umetni inteligenci?
Zakon EU o umetni inteligenci, ki je bil sprejet 1. avgusta 2024 in bo v celoti veljal od 2. avgusta 2026, ureja sisteme umetne inteligence, ki vplivajo na ljudi v EU, tudi če so bili razviti zunaj tega območja. Njegov cilj je zmanjšati tveganja, kot so kršitve zasebnosti, pristranskost, manipulacija in fizična škoda, z uveljavljanjem preglednosti, etičnih zaščitnih ukrepov in človeškega nadzora:
- Preglednost: Sistemi umetne inteligence morajo jasno pojasniti, kako delujejo in kakšna tveganja predstavljajo. Če sistem umetne inteligence neposredno komunicira z ljudmi (npr. klepetalni roboti), mora biti jasno, da gre za sistem umetne inteligence.
 - Etična zaščita: zaščitna ukrepa: zakon razvršča umetno inteligenco po stopnji tveganja, prepoveduje najbolj škodljive sisteme in nalaga stroge obveznosti sistemom z visokim tveganjem.
 - Človeški nadzor: Vidik “človeškega nadzora” je še posebej pomemben za visoko tvegane sisteme AI. Zagotavlja, da lahko ljudje spremljajo, razumejo in nadzorujejo delovanje teh sistemov. Visoko tvegana AI mora biti zasnovana tako, da omogoča človeško interakcijo, s čimer lahko ljudje preverijo, ali sistem deluje varno, in posredujejo, če pride do napake. Cilj je preprečiti škodo za zdravje, varnost ali temeljne pravice posameznikov. Razvijalci, ponudniki in upravljavci so odgovorni za zagotavljanje kakovosti podatkov, izvajanje ocen tveganja in ohranjanje preglednosti delovanja sistemov umetne inteligence. Sistemi z visokim tveganjem morajo biti registrirani v javni zbirki podatkov, v kateri se poroča o incidentih. Skladnost se uveljavlja z ocenjevanjem skladnosti, certifikacijami in znatnimi kaznimi za kršitve.
 
Morebitne globe za neskladnost so lahko visoke – do 35 milijonov evrov ali do 7 % skupnega letnega prometa podjetja v preteklem finančnem letu, kar je višje.
Štiri kategorije tveganja
Zakon o umetni inteligenci razvršča sisteme umetne inteligence v štiri kategorije tveganja:
- Nesprejemljivo tveganje: Sistemi, ki uporabljajo družbeno ocenjevanje, biometrično ocenjevanje v realnem času ali manipulativne tehnologije (npr. usmerjanje v otroke ali ranljive skupine), so na primer popolnoma prepovedani.
 - Visoko tveganje: Strogo regulirani sistemi na področjih, kot so promet, energetika, izobraževanje, zaposlovanje, kazenski pregon in pravosodje. Razvijalci morajo zagotoviti preglednost, odgovornost, človeški nadzor in kakovost podatkov.
 - Omejeno tveganje: Veljajo manj stroga pravila in zahtevajo predvsem preglednost, ko uporabniki komunicirajo z umetno inteligenco, da se zagotovi, da se zavedajo, kako deluje (kot je vidno v aplikacijah, kot so klepetalni roboti ali “deepfakes”).
 - Minimalno tveganje: Večina sistemov umetne inteligence spada v to kategorijo in je v veliki meri neregulirana. Primeri vključujejo umetno inteligenco, ki se uporablja v video igrah, filtrih za neželeno pošto ali avtomatizacijo storitev za stranke.
 
Koga bo zadeval zakon o umetni inteligenci?
Zakon o umetni inteligenci zadeva državljane EU in vse organizacije, ki delujejo v EU ali zagotavljajo storitve v EU. Pet skupin, ki jih zadeva, vključuje:
- Razvijalci in ponudniki umetne inteligence: morajo upoštevati predpise, če njihovi sistemi predstavljajo visoko tveganje ali zahtevajo preglednost.
 - Uporabniki AI z visokim tveganjem: kadar se AI uporablja na občutljivih področjih, kot so zaposlovanje, bančništvo/krediti, zdravstvo/bolnišnice ali vladne/javne storitve, morajo biti izpolnjene stroge zahteve glede nadzora in obvladovanja tveganj.
 - Distributerji in uvozniki: morajo pred prodajo zagotoviti, da sistemi izpolnjujejo zahteve EU.
 - Podjetja izven EU: morajo upoštevati predpise, če njihove rešitve AI vplivajo na uporabnike v EU.
 - Potrošniki: večina ljudi bo v neki obliki potrošnik, in čeprav niso neposredno regulirani, je cilj zakona zaščititi njihove pravice in varnost.
 
Priložnosti in izzivi
Zakon EU o umetni inteligenci uvaja nove predpise, ki jih je treba upoštevati, vendar ponuja tudi številne prednosti za podjetja:
- Z določitvijo jasnih standardov krepi zaupanje potrošnikov in povečuje kredibilnost pri strankah, vlagateljih in partnerjih.
 - Prav tako pomaga zmanjšati pravna tveganja in tveganja za ugled, ki bi lahko nastala, če bi uporabniki utrpeli škodo zaradi uporabe umetne inteligence.
 - Podjetjem zagotavlja jasna navodila za razvoj in delovanje sistemov umetne inteligence v EU.
 - Zakon EU o umetni inteligenci spodbuja podjetja, da vzpostavijo jasnejša pravila za ravnanje z umetno inteligenco in bolje nadzirajo svoje procese. To izboljša odločanje znotraj podjetja in zanesljivost sistemov umetne inteligence. Podjetjem tudi olajša prilagajanje drugim obstoječim ali prihodnjim predpisom o umetni inteligenci.
 
Čeprav zakon o umetni inteligenci krepi zaščitne ukrepe in upravljanje, lahko za podjetja, zlasti manjša podjetja in start-upe, predstavlja tudi nekaj izzivov:
- Sistemi z visokim tveganjem se soočajo z dodatnimi stroški zaradi nalog skladnosti, kot so ocene tveganja in dokumentiranje, kar lahko zamuja razvoj in vstop na trg.
 - Medtem pa lahko podjetja v regijah z manj strogimi predpisi hitreje uvajajo inovacije in zmanjšujejo konkurenco v EU.
 - Različni izvršilni ukrepi v državah članicah EU lahko prav tako povzročijo negotovost.
 
Kako začeti z usklajevanjem z zakonom o umetni inteligenci: 4 ključni koraki
Zakon o umetni inteligenci je kompleksen, vendar se lahko podjetja najprej osredotočijo na štiri ključna področja.
- Razvrstite svoje sisteme umetne inteligence v skladu z zakonom – opredelite sisteme z visokim tveganjem in vzpostavite stalno spremljanje.
 - Zagotovite preglednost z močnim nadzorom nad tem, kako se podatki pridobivajo, upravljajo in uporabljajo za urjenje AI, ter uporabnikom jasno pojasnite, kaj sistem lahko in česa ne more storiti.
 - Usposobite svojo ekipo za upravljanje AI in ustanovite posebno ekipo za skladnost, ki bo skrbela za upoštevanje pravil.
 - Razmislite o uvedbi tehnologij, ki olajšujejo skladnost, kot so orodja za anonimiziranje podatkov, odkrivanje pristranskosti, spremljanje uspešnosti in šifriranje občutljivih informacij.
 
Konica Minolta pristop k etični in skladni umetni inteligenci
Konica Minolta se zavzema za etično, pregledno umetno inteligenco, ki je skladna z Zakonom EU o umetni inteligenci in hkrati spodbuja inovacije. Izvajamo ocene tveganja, ki jih pregleda naš odbor za etiko umetne inteligence, in podpiramo odgovoren razvoj in delovanje z usposabljanjem razvijalcev in ključnih zainteresiranih strani, ki jih podpirajo namenske ekipe, kot so naša delovna skupina za umetno inteligenco, oddelek za varstvo podatkov in notranje enote za skladnost. Uporabljamo tehnologije, kot sta anonimiziranje in šifriranje, da izpolnjujemo zahteve Zakona EU o umetni inteligenci.
Poleg skladnosti je naš cilj vodilna vloga na področju odgovorne umetne inteligence. Z vključevanjem teh načel v vsako fazo razvoja ne zagotavljamo le skladnosti z zakonodajo, ampak strankam ponujamo tudi dodano vrednost z varnimi, zanesljivimi in najsodobnejšimi rešitvami umetne inteligence.
Naslednje Konica Minolta rešitve, ki temeljijo na umetni inteligenci, že izpolnjujejo določbe Zakona o umetni inteligenci:
- Workplace Pure: Platforma v oblaku, ki združuje številne storitve za upravljanje dokumentov. Te vključujejo storitev prevajanja na podlagi umetne inteligence, ki jo je mogoče uporabljati prek brskalnika ali prek nadzornega zaslona bizhub multifunkcijskega tiskalnika. To omogoča hiter in enostaven prevod dokumentov iz skoraj vseh izhodiščnih jezikov v skoraj vse ciljne jezike – kadarkoli in kjerkoli. Gosti se v podatkovnih centrih Open Telekom Cloud v EU, da se zagotovi popolna skladnost z GDPR, in uporablja napredno šifriranje HTTPS za zaščito informacij med prenosom.
 - VSS (Video Solution Services): Konica Minolta storitve za video rešitve (VSS) združuje napredne tehnologije zajema slik (video) z analitiko na podlagi umetne inteligence za izboljšanje varnosti, učinkovitosti in operativnega nadzora v različnih panogah. Primeri uporabe vključujejo nadzor proizvodnih linij, zagotavljanje varnosti zgradb in izboljšanje zdravstvenih okolij. Funkcije, kot so prepoznavanje obrazov ali analiza vedenja, se obdelujejo varno in v skladu s predpisi o varstvu podatkov, kot sta GDPR in AI Act.
 - FORXAI Mirror: FORXAI Mirror uporablja tehnologijo, ki temelji na umetni inteligenci, za povečanje varnosti na delovnem mestu. Zagotavlja dostop do nevarnih proizvodnih območij in zmanjšuje tveganje onesnaženja, saj zagotavlja, da zaposleni vstopajo v proizvodno območje le z osebno zaščitno opremo, ki jo zahteva podjetje. V realnem času zazna odstopanja v uporabi/nošnji osebne zaščitne opreme. Rešitev je mogoče integrirati v obstoječe sisteme za nadzor dostopa, pri čemer se strogo upoštevajo načela Zakona EU o umetni inteligenci – prednostna obravnava zasebnosti, preglednosti, ocene tveganja in razlagljivosti s šifriranjem in strožjim testiranjem modelov umetne inteligence.
 
Prijavi napako v članku

												



























