Umetna inteligenca je tu. Pa smo pripravljeni nanjo?
O čem sploh govorimo, ko govorimo o umetni inteligenci? Pogovorno termin uporabljamo za sisteme, ki posnemajo miselne postopke človeškega uma – zmožnost učenja in reševanja problemov. Za prvega potrebujemo zadostno število podatkov, na podlagi katerih tvorimo zaključke. Povsem enako velja za UI. Tudi ta za delovanje potrebuje veliko število podatkov, s pomočjo katerih se uči in ponudi rešitve. In že je tu prvi tehnološki izziv UI sistemov: za obdelavo enormnih količin podatkov v izjemno hitrem času potrebujejo izredno zmogljivo opremo. Visoka procesorska moč seveda pomeni veliko porabo električne energije, ta pa veliko generirane toplote. Zahteve UI sistemov do okolja, v katerega so nameščeni, so zato izjemno visoke. Tako smo pri naslednjem izzivu: obstoječa infrastruktura jim ni kos.
Kaj storiti, da jim bo? Poglejmo, s čim imamo opravka. Doslej so bile povprečne obremenitve sistemskih omar v podatkovnih centrih med 5 in 10 kW na posamezno omaro. V vsaki je bila torej v povprečju nameščena ITK oprema za skupno priključno moč med 5 in 10 kW, v redkih primerih do 20 kW. Povečini je bila hlajena z zrakom, ohlajenim na 22 do 24 stopinj Celzija. Ker zaradi visoko zmogljivih procesorjev UI sistemi porabijo veliko več električne energije, je veliko večje tudi toplotno breme. Kot primer poglejmo sistem Nvidia DGX B200. Vsebuje 8 procesorjev Nvidia Blackwell GPU z ostalo potrebno periferijo. Električna in toplotna moč takšnega sistema je cca. 14kW, v eno sistemsko omaro jih lahko namestimo do 4. Električna in toplotna obremenitev ene sistemske omare lahko torej doseže do 56 kW in je s klasičnimi tehnikami neobvladljiva. Še večje izzive prinašajo drugi, zaradi izjemno visokih moči že povečini neposredno vodno hlajeni sistemi, kjer moči dosegajo od 130 do celo 400 kW na eno sistemsko omaro, že v nekaj letih pa bo ta številka poskočila do 1MW. Ob tem se bodo zahteve po energetski učinkovitosti še zaostrile, uporabniki pa za delovanje klasične ITK opreme in UI sistemov ne bodo želeli ločenih podatkovnih centrov.
Hibridni podatkovni centri
Odgovor so ponudili hibridni podatkovni centri, ki sočasno gostijo običajne ITK sisteme z nizko energetsko gostoto in UI sisteme z visoko gostoto. Tudi ti se za zdaj še zanašajo na zračno hlajenje, ki pa kmalu ne bo več zadoščalo. Zamenjalo ga bo neposredno tekočinsko hlajenje – tehnologija, pri kateri so strežniki in druga oprema priključeni na namenske tekočinske hladilne sisteme, s katerimi lahko iz opreme odvedemo kar do 95 % toplote. Za sisteme tehničnega hlajenja bodo na voljo cevni razvodi, ki bodo omogočali enostaven priklop novih sistemov. Hlajenje tekočine bo energetsko najučinkovitejše, saj novi temperaturni režimi omogočajo prosto hlajenje brez uporabe kompresorja praktično vse leto. Spremenjen bo tudi način napajanja. Vedno manj bo klasičnih PDU enot, poskočila pa bo raba namenskih PDU enot visoke moči (43, 69, 85 kW). Za razvod električne energije bodo uporabljeni namenski zbiralčni sistemi, ki omogočajo hitro prekonfiguriranje ter prilagoditev na nove razvode. Ob opisanih bodo novi podatkovni centri deležni še cele vrste drugih prilagoditev. Omenimo napajalne in hladilne sisteme, suhe hladilce in/ali adiabatne hladilne sisteme ter stolpe, pa tudi možnost izkoriščanja odpadne toplote, kar bo z visokimi zmogljivostmi in temperaturnimi režimi postalo mnogo realnejše.
Pripravljeni na prihodnost?
Da bomo pravočasno nared za nove tehnologije, ki nezadržno prihajajo, moramo biti odprti za novosti ter pogumno preseči obstoječe paradigme. Izzivov je veliko, a tudi rešitve zanje so že tu. Spoznajte jih na strokovnem srečanju NTRsync 2025, na katerem bodo vodilni evropski strokovnjaki predstavili napredne in stroškovno učinkovite strategije za implementacijo UI v lastna IT okolja. Naj vas prihodnost ne ujame nepripravljene!
Več lahko najdete na www.reaidy.si. (P.R.)
Prijavi napako v članku