Centra danych Fintech stoją w obliczu „paradoksu energetycznego” GenAI

Centra danych Fintech stoją w obliczu „paradoksu energetycznego” GenAI

Centra danych Fintech stoją w obliczu „paradoksu energetycznego” PlatoBlockchain Data Intelligence GenAI. Wyszukiwanie pionowe. AI.

Centra danych napędzają świat. W budynkach tych mieszczą się serwery przechowujące i obliczające wszystkie funkcje cyfrowe realizowane przez nasze społeczeństwa. „Chmura” jest w dużej mierze osadzona w szafach połączonych ze sobą komputerów, które z kolei opierają się na energii, systemach chłodzenia i łączności, obejmującej całą gamę rozdzielnic i przewodów, kabli podmorskich i transmisji satelitarnych.

Generacyjna sztuczna inteligencja zwiększa popyt na centra danych, ale stwarza również ogromne wyzwanie. Modele wielkojęzyczne, takie jak ChatGPT, korzystają z procesorów graficznych Nvidia do trenowania modeli AI, a te chipy są nienasyconymi i żądnymi energii bestiami.

„Generatywna sztuczna inteligencja nie polega tylko na dodawaniu większej liczby szaf” – powiedział Steven Lee, dyrektor w Schneider Electric, specjalista w dziedzinie automatyzacji cyfrowej i zarządzania energią, który przemawiał na niedawnej konferencji. „Zmienia paradygmat centrów danych”.

Od finansów po fintech

Centra danych są nieestetycznym szkieletem fintech i finansów. Największe ekosystemy znajdują się w USA (północna Wirginia i Portland w stanie Oregon), ale także Singapur i Hongkong, dzięki ich roli jako globalnych centrów finansowych.

Największymi klientami centrów danych w tych azjatyckich centrach są instytucje finansowe, obok firm telekomunikacyjnych.

Sytuacja ta ulega jednak zmianie wraz z pojawieniem się nowych klientów konkurujących o stojaki i zasoby. Branża nie jest w stanie wystarczająco szybko zbudować wystarczającej liczby centrów danych.

Fala sztucznej inteligencji już zalewa Amerykę i w ciągu najbliższych dwóch lat dotrze do azjatyckich centrów danych, mówi Andrew Green z JLL, firmy konsultingowej zajmującej się nieruchomościami komercyjnymi.

Nowa grupa dużych graczy to hiperskalowerzy – termin obejmujący dużych dostawców usług w chmurze i firmy internetowe, takie jak AWS, Meta czy TikTok. Ich głód komputerów zmusza centra danych do stania się większymi, bardziej elastycznymi i bardziej dostosowanymi do potrzeb.

Wymagane nowe centra danych

Zmienia to wymagania projektowe dotyczące centrów danych. Banki i ubezpieczyciele zadowalają się tradycyjnymi kolokacyjnymi centrami danych, które są tańsze, ponieważ oferują ujednoliconą infrastrukturę. Hiperskalowanie jest wymagane w przypadku prac wymagających intensywnego przetwarzania i szerszego zestawu zastosowań, w tym treści cyfrowych, mediów społecznościowych, transmisji strumieniowej wideo, handlu elektronicznego, kryptowalut i płatności mobilnych.

A teraz dodaj do listy genAI, które naprawdę dolewa oliwy do ognia. Lee twierdzi, że zapytanie ChatGPT zużywa 10 razy więcej energii niż wyszukiwanie w Google. Dziesięć razy!



Jest to dodatek do szerszego przejścia na cyfryzację na całym świecie, w którym Covid jest głównym czynnikiem przyspieszającym w miarę oddalania się pracy i życia. Jeden przykład: liczba codziennych użytkowników Microsoft Teams wzrosła z 20 milionów w 2019 r. do 300 milionów w 2023 r., mówi Damon Lim z datacenterHawk, firmy badawczej zajmującej się nieruchomościami, specjalizującej się w centrach danych.

Do 2030 r. z Internetu będzie korzystało 7.5 miliarda ludzi, co będzie stanowić około 90 procent światowej populacji. To zapotrzebowanie powoduje, że do końca tego roku prawdopodobnie będzie działać ponad 1,000 hiperskalowych centrów danych.

Paradoks czy gra o władzę?

Rezultatem będzie czterokrotny wzrost zużycia energii przez centra danych od chwili obecnej do 2028 r., mówi Lee. „Na tym polega paradoks energetyczny związany z ogromnym zużyciem energii” – powiedział. 

Nie ma tu jednak nic paradoksalnego: w miarę cyfryzacji społeczeństwa koszty energii niezbędne do zaspokojenia tej tendencji rosną wykładniczo, dlatego tak istotne jest „ekologizowanie” centrów danych. A trend jest globalny. Na przykład wykorzystanie sztucznej inteligencji odpowiada obecnie za około 8 procent wykorzystania centrów danych w Azji Południowo-Wschodniej. Do 2028 roku liczba ta ma wzrosnąć ponad dwukrotnie.

Tendencja ta również się rozprzestrzenia, co utrudnia zrównoważony rozwój. Gdyby chodziło tylko o centra danych, nacisk na ekologię można by położyć na nowe budynki lub modernizację istniejących budynków. Rzeczywiście, prawie wszystkie obciążenia związane ze sztuczną inteligencją są obecnie przechowywane i obliczane centralnie w centrach danych. Jednak coraz częściej zadania te są wykonywane na „brzegu”, dystrybuując je blisko źródła danych (takiego jak budynki, maszyny, a może także Twój telefon). Umieść sztuczną inteligencję na pierwszym miejscu, a zapotrzebowanie na moc będzie rosło i rozprzestrzeniało się.

Deweloperzy centrów danych teoretycznie reagują, zwiększając efektywność energetyczną szaf serwerowych, zmieniając sposoby chłodzenia komputerów (szczególne wyzwanie dla centrów danych w gorących, tropikalnych lokalizacjach) i podłączając się do źródeł energii elektrycznej opierających się w większym stopniu na odnawialnych źródłach energii. .

To, co brzmi dobrze na papierze, jest trudne i kosztowne w realizacji. Centra danych nie zostały zaprojektowane z myślą o tych potrzebach.

Rosanna Tang, badaczka w firmie doradczej Cushman & Wakefield zajmującej się nieruchomościami, zauważa, że ​​w Hongkongu 44 procent centrów danych mieści się w starych budynkach przemysłowych.

Centra te nie są w stanie obsłużyć intensywnego przetwarzania. Mogą one być w stanie zużywać jedynie od 10 do 15 kilowatów na szafę, aby zaspokoić potrzeby obliczeniowe, podczas gdy potrzeby hiperskalerów zwykle pochłaniają 40 kw/szafa, a niektóre wymagają nawet 100 kw/szafa.

„Będziesz potrzebować dedykowanej infrastruktury, aby zapewnić taki poziom chłodzenia i zasilania” – powiedział Patrick McCreary z Yondr Group, operator i programista hiperskalowy.

Specjalny przypadek Hongkongu

W Hongkongu oznacza to budowę większej liczby ośrodków w nowych obszarach. Większość miejskich centrów danych znajduje się w Kowloon, zwłaszcza w pobliżu węzła w Tseung Kwan O. Jednak obietnica obszaru Greater Bay Area i integracja z sąsiednimi miastami na kontynencie oznacza, że ​​centra danych nowej generacji zostaną zbudowane wzdłuż granicy z Shenzhen, co władze lokalne promują „Metropolię Północy”.

Centra danych są w Hongkongu wyjątkowo problematyczne ze względu na brak dostępnych gruntów i nadzwyczajne czynsze w połączeniu z rygorystycznymi przepisami dotyczącymi projektów budowlanych. Green z JLL przewiduje, że w miarę pojawiania się coraz większej liczby centrów danych hiperskalery pochłoną każdą nową pojemność.

Mówi, że ustalenia dotyczące transgranicznego udostępniania danych pobudzą nowy popyt w Singapurze i Hongkongu. W przypadku Singapuru rząd ustalił pewne zasady dotyczące udostępniania danych z Johorem Bahru w sąsiadującej Malezji. Ale największym szokiem będzie Greater Bay Area. Green zauważa, że ​​władze Hongkongu i kontynentu uzgodniły mechanizm udostępniania danych dotyczących prywatności.

„Bez tego nie byłoby GBA” – powiedział Green. „To zmienia zasady gry”. Ułatwi to firmom z kontynentu wykorzystanie Hongkongu jako odskoczni do globalizacji swoich przedsiębiorstw, niezależnie od branży.

Teraz branża centrów danych zbuduje ogromną pojemność, aby zaspokoić popyt związany z GBA i sztuczną inteligencją. Jednym z beneficjentów (i znaczącym klientem) będzie branża fintech. Ale czy te nowe zakłady zostaną zaprojektowane tak, aby maksymalizować efektywność wykorzystania energii elektrycznej i dekarbonizację? Dotychczasowe osiągnięcia nie są zachęcające, a koszty początkowe przejścia na ekologię są stosunkowo wysokie. Branża centrów danych, w coraz większym stopniu zbudowana pod kątem genAI, może spowodować katastrofę klimatyczną w takim samym stopniu jak gospodarka cyfrowa.

Znak czasu:

Więcej z DigFin