Umetna inteligenca kot orodje za pripravo zlonamernih kod?
Aplikacija ChatGPT je pred časom preplavila svetovni splet, saj je sposobna narediti vse mogoče, od reševanja računalniških napak do pomoči pri pisanju člankov, esejev in še mnogo več. Inovativni ChatGPT je bi nedavno vsem ponujen v prosto uporabo. To je med radovedneži vzbudilo željo po preizkušanju tega impresivnega jezikovnega modela, da bi ugotovili, kako prilagodljiv in človeku podoben je lahko v praksi.
A žal se umetna inteligenca ChatGPT lahko uporablja tudi za zlonamerne aktivnosti. To so pred kratkim dokazali varnostni strokovnjaki podjetja CyberArk. Ti so namreč s pomočjo aplikacije ChatGPT samodejno generirali škodljivo programsko kodo, ki bi lahko bila uporabljena zlonamerno. Poleg tega bi lahko bila tovrstna škodljiva programska koda “nevidna” za sodobne protivirusne rešitve.
Umetna inteligenca ChatGPT ima sicer vgrajene varnostne mehanizme, ki uporabnikom preprečujejo, da bi jo zlorabili. A žal ti varnostni mehanizmi niso popolni. Varnostni strokovnjaki podjetja CyberArk so namreč pokazali, da jih je mogoče z nekaj spretnosti zaobiti in zlonamerno kodo uporabiti za aktivnosti, kot je na primer kraja bančnih podatkov.
Prijavi napako v članku