Előregyártott, moduláris adatközponti megoldás, a nagysűrűségű rack rendszereket támogató fejlesztés, mesterséges intelligencia (AI) alkalmazásokat kiszolgáló szerverek energiaelosztó egysége – ezekkel az újszerű megoldásokkal bővül a Schneider Electric portfoliója.

Új, kifejezetten a következő generációs AI-klaszterarchitektúrák adatintenzív igényeinek a kiszolgálására tervezett adatközponti megoldásokkal lép a piacra a Schneider Electric.
Az AI-alkalmazások gyors terjedése miatt ugrásszerűen bővül az adatközpontok kapacitásigénye, kiszolgálásukra az ilyen létesítmények üzemeltetői extrém teljesítménysűrűségű rack-konfigurációkat alakítanak ki.
A mostani előrejelzések szerint az ilyen konstrukciók akár az 1 MW-os, vagy annál is nagyobb teljesítményt is elérhetik.
A francia cég új termékei integrált, adatokkal hitelesített és könnyen skálázható, az adatközpontok fehér terébe szánt megoldásokkal adnak választ a pod- és racktervezés, az energiaelosztás és a hőkezelés új kihívásaira.
„Az AI-klaszterek esetében olyan integrált infrastrukturális megoldásokra van szükség, amelyek nemcsak a szélsőséges hőterhelést és a dinamikus energiaprofilokat kezelik, hanem gyorsan telepíthetők, kiszámíthatóan skálázhatók, hatékonyan és fenntarthatóan működnek. Az NVIDIA technológiát támogató újgenerációs EcoStruxure megoldások éppen ezekre a kritikus követelményekre lettek fejlesztve” – mondja Himamshu Prasad, a Schneider Electric „EcoStruxure IT, Transactional & Edge és Energy Storage Center of Excellence” részlegért felelős vezető alelnöke.
Az AI-alapú infrastruktúrát támogató megoldások
Az újdonságok közé tartozik a „Prefabricated Modular EcoStruxure Pod Data Center” , amelynek előregyártott, skálázható pod-architektúrája(pod:egyedi kód a villamosenergia fogyasztás azonosítására) lehetővé teszi az üzemeltetők számára, hogy nagysűrűségű rackeket(tároló szekrények) telepítsenek, amelyek akár 1 MW-os és annál nagyobb teljesítményű podokat is támogathatnak.
A megrendelésre tervezett új pod-infrastruktúra rugalmasságot kínál, és támogatja a folyadékhűtést, az összetett kábelezést, valamint a forró folyosók elszigetelését, az InRow és a hátsó ajtós hőcserélős hűtési architektúrákat. A berendezést mostantól előre megtervezve és az összes komponenssel együtt, összeszerelve szállítják a gyors telepítés érdekében.
Az új „EcoStruxure Rack Solutions” megbízható, nagy sűrűségű rackrendszer, amely megfelel a vezető IT chip- és szervergyártók által jóváhagyott EIA, ORV3 és NVIDIA MGX moduláris tervezési szabványoknak.
A konfigurációk az áramellátási és hűtéselosztó rendszerek széles kínálatához alkalmazkodnak, továbbá a „Motivair by Schneider Electric” folyadékhűtést, valamint új és kibővített rack- és áramelosztó termékeket alkalmaznak.
Mint korábbi cikkünkben megírtuk az adatközpontokban eddig széles körben ismert léghűtés, a legfeljebb rackenként 60 kW-os rendszerekhez alkalmazható. Az AI korszakban a munkaterhelések azonban elérik a 150 kW-ot vagy annál nagyobbat, amit már csak folyadékhűtéssel lehet kezelni.
A francia cég nemrégiben szerzett többségi részesedést(75%) az amerikai Motivair Corp.-ban, aminek mesterséges intelligenciára is kész termékkínálata a hagyományos léghűtéses környezetektől a teljesen folyadékhűtéses vagy hibrid változatokig terjed.
Az új rack- és áramelosztók közé tartozik a „NetShelter SX Advanced Enclosure” termékcsalád, amely magasabb, mélyebb és erősebb rackeket tartalmaz a megnövekedett súly, kábelezés és infrastruktúra támogatására.
A „NetShelter Rack PDU Advanced” energiaelosztó egységeket frissítették, hogy támogassák az AI-szerverek megnövekedett áramigényét. A „NetShelter Open Architecture” az „Open Compute Project” (OCP) „ihlette” rack-architektúra, amely rendelésre konfigurálható megoldásként kapható, és nyílt rack-szabványokat, hálózati polcot és rackbe épített gyűjtősínt tartalmaz.
Ennek részeként egy új Schneider Electric rack-rendszert is kifejlesztettek az NVIDIA GB200 NVL72 rendszer támogatására, amely az NVIDIA MGX architektúrát használja. Ezzel a megoldással a Schneider Electric termékek először integrálódnak az NVIDIA HGX és MGX ökoszisztémájába.
„Ezekkel a termékekkel válaszolunk az AI-gyárak gyorsan növekvő igényeire – a kilowattostól a megawattos méretű rackekig –, és olyan megoldásokat kínálunk, amelyek maximalizálják a skálázhatóságot, a sűrűséget és a hatékonyságot” – mutat rá Vladimir Troy, az NVIDIA adatközpontok tervezéséért, üzemeltetéséért, vállalati szoftverekért és felhőszolgáltatásokért felelős alelnöke.
Az AI-gyár egy speciális számítástechnikai infrastruktúra, amit arra terveztek, hogy az adatokból a mesterséges intelligencia teljes életciklusának kezelésével teremtsen értéket.
Az új megoldások és a mérnöki adatközpont-referenciatervek az adatközpont-üzemeltetőket és a cég partnereit olyan infrastruktúrával és információkkal látják el, amelyek a nagy teljesítményű AI-klaszterek gyorsabb és megbízhatóbb telepítéséhez szükségesek.