ChatGPT pri iskanju odgovorov uporablja vsebine, ki jih je ustvaril Grok
Tehnološki svet se sooča z novim izzivom: “AI halucinacijami”, ki se lahko začnejo kopičiti. Odkritje, da ChatGPT uporablja vire, ki jih je predhodno ustvaril Grok, kaže na to, da internet postaja zasičen z vsebino, ki ni nastala pod človeškim peresom. Ko model AI, kot je ChatGPT, išče odgovore na redka vprašanja, kjer je primarnih človeških virov malo, se v iskalne rezultate prikradejo povzetki, ki jih je že prej generiral drug algoritem.
Ta pojav strokovnjaki imenujejo modelni kolaps ali “digitalni incest”. Če se modeli učijo drug od drugega, se napake in pristranskosti ne le ohranjajo, temveč stopnjujejo. V letu 2026, ko umetna inteligenca generira že večino besedil na spletu, postaja ločevanje med dejstvi in generiranimi nesmisli vse težje. OpenAI se na očitke odziva s pojasnilom, da njihovi iskalni algoritmi (SearchGPT) indeksirajo celoten splet, kar vključuje tudi vsebine, ki jih objavljajo druge platforme, vključno z Muskovo mrežo X.
Za slovenske uporabnike in podjetja to pomeni, da je kritično razmišljanje ob uporabi AI orodij pomembnejše kot kadarkoli prej. Če se zanašate na AI za raziskovanje nišnih področij, obstaja velika verjetnost, da prebirate le preoblikovano različico odgovora, ki ga je v osnovi napačno sestavil drug algoritem. Leto 2026 nas uči, da digitalna higiena zahteva preverjanje virov pri koreninah, preden se odločimo za uporabo podatkov v poslovne ali izobraževalne namene.
Prijavi napako v članku





























