A zöldebb adatközpontokért – a mesterséges intelligencia környezetbarátabbá teheti a digitális gazdaság gerincét

A digitalizáció folyamatos terjedése megdöbbentő méretű adatmennyiség-növekedéssel párosult az elmúlt évtizedben világszerte, ráadásul a koronavírus-járvány még inkább felgyorsította az online térben zajló folyamatokat. Ami a kilencvenes években még kiváltságnak számított, napjainkban már alapvetés, és emberek milliárdjai töltik idejüket internetezéssel. Az ehhez szükséges rendszerek működtetésére és az adatok megőrzésére jöttek létre az úgynevezett adatközpontok, melyekben tárolók, nagy kapacitásokkal rendelkező, professzionális szerverek, hálózati és biztonságtechnikai eszközök egyaránt megtalálhatók. Legfontosabb feladatuk nem más, mint hogy a rengeteg számítógép folyamatosan, leállás nélkül, biztonságosan működjön. A szervereknek emellett állandó hőmérsékletre, és teljesen pormentes környezetre van szükségük. A tetemes áramfelvétel és az áramellátás, illetve az elengedhetetlen internetkapcsolat biztonsága miatt az is fontos szempont, hogy hol helyezkedik el az adatközpont.
Csillapíthatatlan energiaétvágy
Kevesen gondolnák, de az adatközpontok igénye nem új keletű, már az előző évszázad közepén megindultak az első kísérletek. Ezek közül is kiemelkedett az American Airlines és az IBM SABRE nevezetű projektje, melyet az 1960-as években azért hoztak létre, hogy automatizálják a légitársaság jegyfoglalási rendszerét, és az utazni vágyók a világ bármely pontjáról kiválaszthassák, hogy a járatok melyik ülésein utazzanak. Ez a kényelmi megoldás nyitott később kaput az első, vállalati szintű adatközpontok előtt. A hihetetlen sebességű fejlődés eredményeként tavaly év végén már közel 11 ezer, hatalmas méretű adatközpontot (egy ilyen létesítmény átlagos mérete 100 ezer négyzetméter) jegyeztek fel világszerte, ezeknek közel a fele az Egyesült Államokban található. A képzeletbeli dobogóra Németország és az Egyesült Királyság léphetett fel, Kína – egyelőre – a negyedik pozíciót foglalja el mintegy 450 központtal. És ez csak a legfelső kategória. Ha a méreteket nem vesszük figyelembe, még elképesztőbb adattal szembesülünk. 2024-ben már bőven milliós nagyságrendben van a működő kisebb és közepes terjedelmű szerverközpontok száma a világon. Az előrejelzések alapján ráadásul további robbanásszerű fejlődésre lehet számítani, 2027-ig a globális adatközpont-telepítési piac várhatóan 6,5 százalékos összetett éves növekedési rátával bővül. Mindez elsősorban az online streaming szolgáltatások növekedésének és az IoT bevezetésére vezethető vissza. Érdekesség: a média- és szórakoztatóipar az adatközpontok fogyasztásának közel a harmadát tette ki 2023-ban.

A fejlődésnek azonban nagy ára van: csak a Google és a Microsoft szerverparkjainak éves energiaigénye azonos Magyarország teljes 2023-as áramtermelésével. Az adatközpontszektor áramfogyasztása már ma is a világ áramigényének 2 százalékát képviseli. Ez az adat annak ismeretében rendkívüli, hogy még csak most kezdődik a mesterséges intelligencia tömeges és ipari alkalmazása. Az 1,5 százalékos aránnyal sajnos a globális üvegházhatású gázok kibocsátásában is élen járnak. A környezetvédők másik nagy problémája, hogy a kutatások szerint egy hatalmas méretű adatközpont átlagosan napi több mint egymillió liter vizet használ fel hűtésre. Az meg komoly aggodalomra ad okot, hogy az üzemeltetők közel felének nem szempont a létesítményeik vízfogyasztásának mértéke, egyes adatközpont-szolgáltatók pedig egyenesen üzleti titokként kezelik az adatokat.
Az adatközpontszektor áramfogyasztása már ma is a világ áramigényének 2 százalékát képviseli.
Víz, hó, szél, űr
Bill Gates, a Microsoft alapítója egy texasi konferencián idén tavasszal úgy fogalmazott, hogy az elektromos áram ára lesz a legfontosabb tényező abban, hogy nyereséges lesz-e egy adatközpont, másképpen fogalmazva, egy adatokra épülő IT-vállalat. Több hazai felmérés is vizsgálta az áramkimaradások hatását az adatközpontokra vonatkozóan. A megkérdezett vállalatoknál tízből kilencnél történt szerverleállás az elmúlt három évben. A kiesések legjellemzőbb okai áramellátással összefüggő problémákra vezethetők vissza, amelyek aránya az összes kiesésen belül évről évre növekszik. A hálózat megbízhatóságát több tényező is veszélyezteti. Egyebek között az elöregedő infrastruktúra és átviteli rendszer, a súlyos időjárási események, valamint az ingadozó megújuló energiaforrásokra történő átállás. A szakértők ezzel kapcsolatban arra figyelmeztetnek, hogy ha az érintett vállalatok nem foglalkoznak ezekkel a szempontokkal, annak a következménye jelentős versenyhátrány lehet. Mivel az MI infrastrukturális igényei eltérőek, ezért alapjaiban alakítják át az addig megszokott technológiai rendszereket. A legújabb generációs szerverekre nagyobb energiasűrűség, nagyobb energiaigény és nagyobb hőkibocsátás jellemző.
Nem csoda, ha ez ügyben a techóriások minden megoldásra nyitottak. Első lépésként az északi országokat – a Google és a Facebook már 2011 óta jelen van Finnországban – vagy éppen a gleccsereket vették célba, ahol a hőmérséklet rendkívül alacsony, de vannak próbálkozások a vízszint alatt is. A Microsoft 2013-ban indította el Natick nevet viselő projektjét, melynek keretében komplett adatközpontokat süllyesztettek a tengerek és óceánok fenekére, azonban a kezdeti sikerek után fokozatosan felszámolták a vízi bázisokat, és idén nyáron elismerték, hogy szárazföldi létesítményekbe költöztették a szerverparkjaikat. Ehhez képest Kína jelenleg is a világ első kereskedelmi víz alatti adatközpontjának építésén dolgozik. Tavaly a dél-kínai Hajnan tartomány Sanya nevű szigete melletti tengerfenéken kezdtek el építeni egy 100 egységből álló, közel 70 ezer négyzetméteres létesítményt. Az egyenként 1300 tonna tömegű egységek 35 méterrel a vízszint alatt helyezkednek majd el, és a tervek szerint mindössze fél perc alatt négymillió, HD-minőségű képet tudnak feldolgozni. Mindez 60 ezer számítógép teljesítményével ér fel. A tíz focipálya-méretű, vízhűtéses adatközpont a becslések szerint 40-60 százalékkal lesz energiahatékonyabb szárazföldi társainál. A szakértők arra számítanak, hogy a folyóban, tengerben vagy óceánban elhelyezett adatközpontok száma erőteljesen növekedni fog az elkövetkező időszakban, és természetesen nem csak Kína területén.
A korábbiaknál jóval vadabb ötlettel rukkolt elő idén egy francia technológiai vállalat. A Thales Alenia Space szakemberei közel másfél éven át azt vizsgálták, hogy megoldható-e az űrbe költöztetni az adatközpontokat. Elméletük szerint igen. A több nemzetközi vállalatot és űrügynökséget is foglalkoztató projekt tagjai arra jutottak, hogy a következő évtized közepére akár 13 adatközpont költözhetne a csillagok közé, és mintegy 1400 kilométeres magasságban keringenének a Föld körül, háromszor magasabban, mint ahol a Nemzetközi Űrállomás van. A technikai feltételek ugyan egyelőre még nem állnak készen a tervek megvalósítására, ám ha sikerrel járnak, akkor a rezsiköltségek egészen alacsonyak lennének, hiszen az űrbe telepített létesítményeket 0–24-ben lehetne napenergiával működtetni, miközben a hűtésre – a világűr nagy részében uralkodó hőmérséklet (−270 °C) – sem kellene egyetlen fillért se költeni.
A következő évtized közepére akár 13 adatközpont költözhetne a csillagok közé, és mintegy 1400 kilométeres magasságban keringenének a Föld körül

De vissza a Földre. A techcégek célkeresztjébe a szélenergia-projektek is bekerültek, és ennek olykor a lakossági fogyasztás látja a kárát. A szárazföldtől 15-20 kilométerre található, jelenleg is fejlesztés alatt álló skóciai szélturbinafarm eredetileg 1,3 millió háztartás áramellátását fedezte volna, azonban a világ legnagyobb online kiskereskedő cége, az Amazon végül megvásárolta a létesítmény energiatermelő képességének felét, hogy saját kapacitásfejlődését biztosítsa. A 60 darab, 100 méteres lapátokkal megerősített szélturbinák közül így minden második egyetlen cég szolgálatában áll.
Miképp segíthet az MI?
A mesterséges intelligencia nem csupán a digitális tartalom létrehozásának és feldolgozásának eszközeként szolgál, hanem egyre fontosabb szerepet tölt be környezetünk megóvásában is. Jó hír, hogy megjelentek a hűtési hatékonyság fokozását mesterséges intelligenciával támogató első megoldások. Az MI segítségével a létesítmények hűtési folyamatainak mértéke sokkal pontosabban előre kalkulálhatóvá válik. Az optimális teljesítmény fenntartásához az algoritmusok dinamikusan és folyamatosan, valós időben avatkoznak be a rendszer működésébe. Emellett a mesterséges intelligencia javaslatokat is tesz a konfiguráció egyes elemeinek változtatására, a teljesítményanalízist pedig korábban nem látott szintre emelheti. Mindez annak fényében jelenthet áttörést, hogy alig két éve az Angliát sújtó extrém hőhullám jószerével kiiktatta a Google és az Oracle londoni adatközpontjait. A vállalatok státuszriportjaiból a többi között az volt kiolvasható, hogy azért állították le több órára a szolgáltatásokat, hogy megelőzzék a berendezések károsodását, ami esetleg hosszabb szolgáltatáskieséssel járt volna. A nagyobb kármentés ellenére olyan népszerű szolgáltatások is elérhetetlenné váltak az érintett régiókban, mint a WordPress.

A mesterséges intelligencia segítségünkre lehet az éghajlatváltozás modellezésében is. Az általa generált adatok és modellek alapján jobban megérthetjük a klímaváltozás hatásait, és ennek köszönhetően hatékonyabb válaszokat dolgozhatunk ki rájuk. Az ugyancsak MI által támogatott OPT4SOL által kifejlesztett rendszer pedig a napelemparkok helyválasztásának optimalizálásában lesz elengedhetetlen. A térinformatikai eszközökre és a gépi tanulási modellekre épülő helykiválasztást 70 különböző hazai és európai forrásból származó téradattípus befolyásolhatja. Ide tartoznak egyebek között a népességi adatok, a föld tulajdoni szerkezete, a környék aszályindexe vagy a villamosenergia-hálózat kiépítettsége is. A rendszer különlegessége, hogy a jogszabályi ismereteket felhasználva – természetvédelmi területi besorolásokat figyelembe véve – előre kizárhat területeket az elemzési folyamatból. Az előszűrés után az OPT4SOL nemcsak listázza, de rangsorolja is a park telepítésére alkalmas területeket.
A mesterséges intelligencia segítségünkre lehet az éghajlatváltozás modellezésében is.
És hogy végül egy klasszikusabb területet érintő megoldással zárjuk a sort. Az internetes forgalom több mint 80 százalékáért a videós tartalmak felelnek, és léteznek már olyan MI-rendszerek, melyek kulcsszerepet töltenek be a digitális tartalmak tömörítésében. A DeepMind által végzett kutatások arra fókuszálnak, hogy a felhasználói élmény rovása nélkül lehessen a nagy méretű adatfolyamokat hatékonyabban kezelni.
Az elmúlt időszak fejleményei, és a jelenleg előttünk álló lehetőségek egyértelműen azt mutatják: minden megoldásra szükségünk van ahhoz, hogy valóban zölddé tudjuk tenni az adatközpontokat, és az azokat működtető technológiákat. Hatékonyabb rendszerek és megújuló energiaforrások bevonása nélkül ugyanis lassan elérjük a fizikai határainkat. Márpedig a természeti kincseink és az alapellátást szolgáló hálózati infrastruktúra kárára történő fejlesztések nem az emberiség jövőjét szolgálják.•
Címlapkép: Depositphotos/3dmentat