Umetna inteligenca Copilot le za zabavo?
Čeprav Microsoft svoj Copilot oglašuje kot nepogrešljiv pripomoček za povečanje produktivnosti v operacijskem sistemu Windows 11 in pisarniškem paketu Microsoft 365, pravni dokumenti podjetja razkrivajo precej drugačno podobo. V posodobljenih pogojih uporabe je namreč jasno zapisano: »Copilot je namenjen izključno zabavi.« Podjetje dodaja, da lahko orodje dela napake, ne deluje po pričakovanjih in da se uporabniki nanj ne smejo zanašati pri iskanju pomembnih nasvetov.
Ta previdnostna izjava, ki močno spominja na tiste, ki jih uporabljajo jasnovidci, da bi se izognili tožbam, poudarja naravo velikih jezikovnih modelov (LLM). Njihova največja težava so namreč tako imenovane »halucinacije«. Tu dejansko gre za generiranje informacij, ki zvenijo prepričljivo, a so popolnoma napačne. Microsoft s tem pravno ščiti svojo odgovornost, saj ko uporabnike spodbuja k uporabi Copilota na lastno odgovornost.
Ironija je še večja, saj Microsoft močno pritiska na potrošnike in podjetja z nakupom novih računalnikov kategorije Copilot+ PC, kjer je umetna inteligenca v središču uporabniške izkušnje. Kljub temu, da lahko generativna umetna inteligenca resnično pomaga pri pripravi osnutkov ali povzemanju dokumentov, Microsoft priznava, da ta še ni vedno povsem zanesljiva. To je tudi razlog, zakaj računalniški gigant ne prevzema nobene odgovornosti za morebitne napake Copilota.
Medtem ko drugi ponudniki, kot je xAI, prav tako opozarjajo na nepredvidljivost svojih modelov, Microsoftova klasifikacija Copilota kot »zabavnega« izdelka odpira vprašanja o prihodnosti profesionalne rabe te tehnologije. Za zdaj velja zlato pravilo, da vsak odgovor, ki ga poda umetna inteligenca, je treba kritično preveriti, saj se v ozadju bleščečih oglasov skriva le orodje brez prave odgovornosti.
Prijavi napako v članku


























