Ca şi maşinile electrice, centrele de date trec la arhitectură de 800V DC, iar NVIDIA, ABB şi Hitachi Energy vor construi centre care vor consuma cât o ţară mare
2 Noiembrie 2025, 18:57 Redacţia PiataAuto.md
În lumea maşinilor electrice, a venit un moment când, pentru a putea avea putere imensă din baterii în electromotoare şi putere mare de încărcare, a fost nevoie să se facă saltul de la 370-400V la 800V, tocmai de asta cam toate maşinile ultra performante din ultimii ani sunt construite pe arhitectură de 800V, iar unele au sărit deja şi mai sus, la 900-1.000 V. Aceeaşi provocare, dar amplificată la o scară de zeci de mii de ori mai mare, o au acum şi centrele de date tot mai mari şi mai puternice, multe din ele dedicate inteligenţei artificiale. E nevoie de un număr imens de procesoare, dar inginerii care proiectează acestei centre de date spun că nu se mai poate creşte puterea de procesare doar prin extinderea numărului de procesoare şi creşterea dimensiunii centrelor de date, ci e nevoie de ceva radical diferit. E nevoie de trecerea la o arhitectură de 800V DC, ca şi la maşinile electrice, pentru a spori enorm randamentul centrelor de date viitoare fără a creşte doar consumul de electricitate şi dimensiunea lor. Cei de la NVIDIA au publicat de curând motivaţiile profunde ale acestei schimbări şi au anunţat şi faptul că cele mai mari şi mai experimentate companii din industria reţelelor electrice de mare putere, precum elveţienii de la Hitachi Energy şi elveţienii şi suedezii de la ABB, vor participa la construcţia de viitoare centre date, care vor consuma cât o ţară mare.
Multe decenii la rând, centrele de date erau formate din nişte hale cu servere, conectate la reţeaua electrică pentru funcţia de procesare, iar pe lângă asta edificiului trebuia să ţină cont de răcirea acelui spaţiu, pentru a disipa căldura generată de funcţionarea acelor servere. Infrastructura energetică nu era decât o funcţie secundară, pentru că centrele de date nu consumau atât de mult, încât se afecteze prea mult reţeaua electrică a unei regiuni sau a unei ţări. Era suficient ca să existe acces la o conexiune electrică puternică, de parametri standard de tensiune şi frecvenţă.
Inteligenţa artificială, însă, a dictat necesitatea unei puteri de procesare mult mai mari, care a dus totul într-o altă dimensiune, a unor valori de consum imense, iar aici toate lucrurile care păreau anterior secundare au devenit critice, de ele ajungând să depindă performanţa şi viabilitatea unui centru de date.
Astăzi, nevoia de putere enormă de procesare face ca o mulţime de centre de date moderne să aplice reţeta conectării a mii de procesoare grafice GPU conectate în grupuri unison, care acţionează ca un mega procesor monolitic.
Pentru a atinge latenţa minimă şi capacitatea de trecere mare, cerută pentru aceste conexiuni, aceste conexiuni se bazează pe fire de cupru. Însă şi cuprul are o limită a eficienţei care e atinsă deja, ceea ce face ca, pentru a construit un sistem AI mai puternic, să fie nevoie să se amplaseze mai multe unităţi GPU într-un spaţiu fizic mai mic. Această necesitate arhitecturată face ca performanţa să devină direct proporţională cu densitatea acestor configurări. Un asemenea salt de performanţă a fost făcut de NVIDIA când a trecut de la unităţile Hopper la Blackwell — un sistem de 72 GPU-uri unite în unison, cu o densitate de 3,4 ori mai mari. Consumul per procesor a crescut cu 75% în noua generaţie Blackwell, dar datorită densităţii fizice mai mare şi reducerii distanţei conectoarelor de cupru între GPU-uri, performanţa de procesare a crescut de 50 de ori.
Foto: GPU NVIDIA Blackwell
Doar că acest salt de consum per GPU şi de densitate a însemnat că un rack de procesoare GPU a făcut un salt enorm de consum. Fiecare rack conţine un sistem NVIDIA Blackwell NVL72, spre exemplu, care include 72 GPU-uri Blackwell interconectate între ele. Odată cu acest rack ultraperformant cu 72 GPU, puterea unui asemenea sistem a crescut de la câţiva zeci de kW la cu mult peste 100 kW. De fapt, consumul minim efectiv ar fi de 120 kW, iar cu tot cu pierderi de transformare puterea necesară de asigurat din reţea ar fi de 144-150 kW, pentru un singur asemenea supercomputer, parte dintr-un centru de date AI modern!
Foto: Aşa arată un rack NVIDIA Blackwell NVL72, care consumă 120 kW net
Ca să înţelegem contextul, cândva se considera că puterea medie luată în calcul pe gospodărie la consumul în orele de vârf era drept una de 0,5 kW, iar în orele normale de 0,15 kW. Asta înseamnă că 150 kW ar acoperi cam 300 case în orele de consum maxim şi 1.000 case în orele obişnuite. Iar ca să înţelegem ce înseamnă un centru de date de moderne, cele mai mici clustere AI, pentru universităţi şi centre de cercetare sunt formate din 15-25 rack-uri de tipul NVIDIA Blackwell NVL72, ceea ce totalizează o putere de 2-3 MW, în timp ce centrele de date mari cu 400-800 rack-uri, cu puteri de 60-120 MW. Însă centrele de date cele mai mari şi mai moderne, sub forma unor adevărate campusuri, au deja câte 2.000-5.000 rack-uri, ceea ce ajunge să totalizeze 300-750 MW putere, deci un singur asemenea centru de date consumă deja electricitate cât o ţară mică precum Moldova, sau cât producţia unui reactor de la Cernavodă din România.
Mai sus, am menţionat că 120 kW ar fi consumul efectiv, în timp ce 24-30 kW pe deasupra ar fi pierderile de transformare. Asta se întâmplă pentru că e nevoie de mai multe trepte de transformare a curentului alternativ de la liniile puternice de reţea până la distribuţia locală de circa 400-415V de curent alternativ cu 3 faze, apoi transformarea lor în 54V de curent continuu pentru fiecare rack. Toate astea adună pierderi enorme, care devin impunătoare odată cu scalarea acestor centre de date.
Şi apoi, NVIDIA a mai dezvăluit o problemă despre care puţini din cei care nu sunt implicaţi direct în aceste centre de date ştiu. Un centrul de date imens pentru AI, chir dacă are sute sau mii de rack-uri, operează adeseori ca un sistem unitar şi sincronizat. Spre deosebire de centrele de date clasice, în care procesoarele au sarcini independente, necorelate între ele, atunci când un model de inteligenţă artificială e antrenat, toată puterea de procesare e sincronizată, iar la nivel decalat în timp asta înseamnă că toate aceste procesoare execută un cicluri de computare intensă, urmate de cicluri de schimb de date. Asta creează o problemă imensă a variaţiei de consum uriaşe, în care toate procesoarele consumă simultan putere la aproape 100% din potenţial, după care toate intră în regim scurt de relaxare la schimbul de date la ralanti, când consumă doar circa 30% din potenţial. Iar asta înseamnă că un asemenea centru de date imens, de 700 MW putere, spre exemplu, poate trage acum 210 MW, iar în clipa următoare trage 700 MW, după care din nou 210 MW. E o variaţie de 490 MW, repetată ciclic la nivelul unor milisecunde, care poate destabiliza până şi sistemul unei ţări mai mare, precum România sau Spania. Iar dacă există mai multe asemenea centre de date, presiunea creşte şi mai mult, chiar dacă centrele de date nu sunt sincronizate între ele.
Însă asta limitează şi nivelul până la care poate creşte un singur centru de date. După puterea necesară de procesare, ar fi nevoie de centre de date care să treacă şi peste 1 GW, sau poate chiar peste 3-5 GW. Însă asta ar pune o presiune imensă pe reţea şi ar necesita o gândire profundă a arhitecturii, pentru a absorbi acestei variaţii local. În acelaşi timp, dezvoltatorii de GPU-uri, precum NVIDIA, spun că în condiţiile arhitecturii actuale, o putere de 1 MW per rack e imposibil de atins într-un mod fezabil, care să nu ducă unii parametri în absurd, precum folosirea de cupru, şi pierderile de rezistenţă. Or, la 54V tensiune, e nevoie de o intensitate imensă a curentului, pentru a se ajunge la puteri cumulate de 1 MW.
Tocmai de aici vine şi motivul necesităţii de a trece la arhitectura de 800V cu curent continuu DC. Noua arhitectură ar presupune un singur transformator local la centrul de date, care transformă puterea primită din reţea din curentul alternativ în 800V cu curent continuu. Mai apoi, reţeaua electrică internă a centrului de date ar opera cu curent continuu, iar tensiunea de 800V ar ajunge direct la procesoarele GPU, întrucât şi acestea ar face saltul imens de la 54V DC la 800V DC.
Asta ar face ca un singur fir de acelaşi diametru, folosit acum la 415V AC să poată transporta cu 157% mai mult curent în regim de 800V DC. Iar la nivel de GPU, creşterea tensiunii va reduce pierderile din rezistenţă şi va permite un salt enorm imens de la circa 120 kW actuali per rack la peste 1 MW per rack, reducând totodată consumul de cupru şi reducând pierderile de curent actuale la minim. Asta înseamnă şi mai puţină căldură degajată şi mai puţină energie necesară pentru răcire.
Cei de la NVIDIA spun clar că tensiunea de 800V şi curentul continuu nu e un teritoriu necunoscut, fiind folosit la maşini electrice şi la transportul de electricitate din surse regenerabile. Iar noi am vorbim în multe articole despre faptul că în prezent sunt tot mai solicitate cablurile HVDC de curent continuu la tensiune înaltă pentru transportul electricităţii de la parcurile eoliene maritime spre ţărm, iar de multe ori şi pentru simplul transport al electricităţii la distanţe mari cu pierderi minime, mult mai mici decât la transportul cu curent alternativ AC. Iar în acest context îi menţionam des pe cei de la Hitachi Energy, cu sediul în Elveţia, ca inventatorii tehnologiilor care au permit convertirea de la AC la DC şi invers cu pierderi minime. Şi ei vor avea un rol imens în viitoarele centre de date de 800V.
Trecerea la 800V DC va rezolva problema scalării prin calitatea şi randament a centrelor de date, dar nu va rezolva problema volatilităţii, prin care variază enorm sarcina solicitată. Iar aici va fi nevoie de experienţa enormă a celor de la ABB în stabilizarea reţelelor electrice, inclusiv prin gestionarea unor stocări locale de energie. Anume ei vor fi cei care vor asigura o arhitectură ce va putea menaja local aceste salturi imense de ordinul gigawaţilor în centrele de date viitoare, fără a pune presiunea acestor variaţii pe sistemul energetic al ţării la care sunt conectaţi. E drept că şi cei de la ABB recunosc că deocamdată au avut de-a face cu stabilizări de zeci de MW, şi sute de MW, iar stabilizările de GW sunt o zonă nouă. Însă nimeni nu cunoaşte mai bine profunzimea curentului electric, a reţelelor şi a eficienţei stabilizării lui, decât ABB, Hitachi Energy sau GE Vernova, toate aceste companii emblematice în lume şi contribuitoare la inovaţiile energetice de-a lungul anilor, urmând să participe.
Iar NVIDIA şi celelalte companii implicate în construcţia acestor noi arhitecturi de 800V DC al centrelor de date, spun că ea va sta la baza construcţiei unor centre noi de date estimate la o putere cumulată de circa 125-150 GW până în 2030. Vorbim, deci, de 150 GW putere electrică! România are un consum maxim de 8-10 GW la orele sale de vârf pentru întreaga ţară. Spania are 125 GW de putere totală instalată în toate capacităţile sale de generare şi nu consumă niciodată 125 GW în orice moment al timpului. Deci viitoarele centre de date, care ar urma să fie construite pe această nouă arhitectură, nu doar că depăşesc cumulativ parametrii ţărilor medii, ci le devansează şi pe cele mari. Marea Britanie ajunge la maxim 61 GW în orele sale de vârf, Germania ajunge la maxim 90 GW în orele de vârf. De fapt, tot continentul european ajunge la 450-500 GW consum maxim simultan! Deci, ceea ce urmează în aceste centre de date e comparabil o treime dintr-un continent mare şi popular ca Europa în materie de consum de energie şi putere de procesare. Tocmai de asta, chiar şi 5-7% de pierderi eliminate înseamnă cifre de pierderi evitate comparabile cu cantitatea de electricitate consumată de ţări de mărime medie.