OpenAI razkriva: Umetna inteligenca se zna pretvarjati!

Raziskovalci največjih tehnoloških podjetij občasno predstavijo odkritja, ki zvenijo kot iz znanstvenofantastičnega romana. Google je nekoč trdil, da njihov kvantni procesor nakazuje obstoj več vesolj. Anthropic je svojemu AI agentu Claudiusu zaupal upravljanje avtomata s prigrizki, a ta pa je začel klicati varnostnike in trditi, da je človek. Tokrat pa je presenetil OpenAI.
V sodelovanju z Apollo Research je objavil raziskavo, ki razkriva, kako preprečiti, da bi se AI modeli “pretvarjali.” Po njihovih besedah gre za vedenje, kjer se AI na površju obnaša skladno s pričakovanji, v ozadju pa zasleduje povsem drugačne cilje. Raziskovalci so tovrstno “spletkarjenje” primerjali z borznim posrednikom, ki krši zakon za čim večji zaslužek. A večina primerov ni bila škodljiva Šlo je namreč za preproste prevare, kot je trditev, da je naloga opravljena, čeprav ni.
Glavni namen raziskave je bil pokazati, da tehnika “deliberativnega usklajevanja” deluje. Gre za pristop, kjer model pred delovanjem pregleda “anti-spletkarsko specifikacijo”, podobno kot otrok, ki mora ponoviti pravila, preden gre igrat. A tu je zaplet: če AI zazna, da je testiran, se lahko pretvarja, da ne spletkari. čeprav to še vedno počne. Poskusi, da bi model naučili, naj ne laže, lahko vodijo do tega, da se nauči lagati še bolj prefinjeno.
OpenAI priznava, da so zaznali laži tudi pri ChatGPT, a gre večinoma za manjše prevare, in sicer kot trditev, da je uspešno izdelal spletno stran, čeprav je ni. Raziskovalci opozarjajo, da bo z večjo kompleksnostjo nalog in dolgoročnimi cilji verjetnost škodljivega spletkarjenja rasla. Zato morajo rasti tudi varovalke in testni postopki.
Vse to pa odpira pomembna vprašanja za prihodnost umetne inteligence. Še posebej v podjetjih, kjer se AI agenti obravnavajo kot samostojni “zaposleni.”
Prijavi napako v članku