Amerykańskie firmy technologiczne inwestują miliardy w sztuczną inteligencję. To powoduje problem z zasilaniem


Więcej i lepsza sztuczna inteligencja (AI) – to cel, do którego dążą największe firmy technologiczne w USA. W ostatnich tygodniach Open AI, Amazon i Meta ogłosiły, że zainwestowały miliardy dolarów w sztuczną inteligencję. Nawet Donald Trump poruszył ten temat drugiego dnia swojego urzędowania. Duża część tych pieniędzy zostanie przeznaczona na infrastrukturę stanowiącą podstawę sztucznej inteligencji: centra danych.
NZZ.ch wymaga JavaScript do prawidłowego działania ważnych funkcji. Twoja przeglądarka lub program blokujący reklamy obecnie to uniemożliwia.
Proszę zmienić ustawienia.
100 miliardów dolarów ma zostać zainwestowanych w projekt „Stargate” przez Open AI i Microsoft, Alphabet planuje zainwestować w tym roku 75 miliardów dolarów w rozwój AI, Amazon inwestuje 86 miliardów dolarów w infrastrukturę, Meta 65 miliardów dolarów. Nowe centra danych mają powstać również w Europie, zwłaszcza we Francji. Prezydent Francji Emmanuel Macron ogłasza inwestycje o wartości 109 miliardów euro na szczycie poświęconym sztucznej inteligencji w Paryżu. Zapotrzebowanie na energię wzrośnie wraz z rozbudową infrastruktury AI, ale o ile, to pozostaje kwestią sporną.
W USA jest o wiele więcej centrów danych niż w Europie. Tam wysoce wyspecjalizowane układy scalone szkolą i obsługują modele AI przez całą dobę. Te centra danych zużywają dużo energii elektrycznej. W stanie Wirginia centra danych odpowiadają już za jedną czwartą całkowitego zapotrzebowania na energię elektryczną. Ale skąd ta energia powinna pochodzić w sposób możliwie najbardziej przyjazny dla środowiska i niezawodny?
Sztuczna inteligencja zwiększa zapotrzebowanie na energięSztuczna inteligencja zużywa energię elektryczną kilkakrotnie: duże ilości podczas trenowania modelu sztucznej inteligencji. I za każdym razem, gdy użytkownik wysyła żądanie do modelu. W zależności od tego, czy ma zostać utworzony tekst, obrazy czy filmy, każde żądanie wysłane do chatbota, takiego jak Chat-GPT, pochłania od dziesięciu do trzydziestu razy więcej energii niż wyszukiwanie online przy użyciu wyszukiwarki.
Chipy komputerowe potrzebne do szkolenia i używania sztucznej inteligencji wymagają również więcej energii niż tradycyjne chipy potrzebne na przykład w aplikacjach chmurowych. Aby wytrenować model sztucznej inteligencji lub przetworzyć zapytanie, układ scalony musi przede wszystkim wykonać obliczenia, a nie tylko zapisać informacje. Generuje to również dodatkowe ciepło. Dlatego centra danych muszą być specjalnie chłodzone. Zwłaszcza w gorących regionach, takich jak Teksas czy Arizona, wymaga to dużej ilości dodatkowej energii elektrycznej.
Znajduje to również odzwierciedlenie w prognozach dotyczących przyszłego zużycia energii w centrach danych. Firma konsultingowa McKinsey szacuje, że do 2030 roku w USA moc energetyczna osiągnie 80 gigawatów. W ubiegłym roku liczba ta wynosiła 25 gigawatów. Boston Consulting Group (BCG) przewiduje również, że zapotrzebowanie na energię wzrośnie trzykrotnie. Jak podaje BCG, w obliczeniach uwzględniono fakt, że sztuczna inteligencja staje się coraz bardziej wydajna. Centra danych powstają nie tylko w USA; w ich rozbudowę inwestują kraje i firmy na całym świecie. Firma konsultingowa Bain pisze, że zużycie energii w centrach danych na całym świecie wzrosło o 72 procent w latach 2019–2023 i przewiduje się, że do 2027 r. wzrośnie ono dwukrotnie.
Obecnie centra danych odpowiadają za jeden procent światowego zużycia energii. Jeśli szacunki okażą się prawidłowe, do 2027 roku centra danych będą odpowiadać za aż 2,6 procent światowego zapotrzebowania na energię. Może to być nadal niewielki odsetek, jednak szybki wzrost podkreśla potrzebę niezawodnych źródeł energii.
Ogólnie rzecz biorąc, w ostatnich latach układy scalone stają się coraz bardziej wydajne. Jednak w przypadku układów AI widoczny jest trend wzrostu zużycia energii. Najnowszy układ Blackwell firmy Nvidia będzie wymagał 15 kilowatów energii. Gdyby całe centrum danych zostało wypełnione takimi układami, z łatwością zużyłoby ono tyle energii, co średniej wielkości miasto. Babak Falsafi jest profesorem na EPFL i zajmuje się badaniem efektywności centrów danych. Mówi: „Dzięki układom scalonym opracowanym specjalnie dla sztucznej inteligencji zużycie energii podwaja się z każdą nową generacją”.
Rok temu Sam Altman, dyrektor generalny Open AI, ostrzegał, że niedobór energii zagrozi rozwojowi sztucznej inteligencji.
Lepsze układy scalone mogą zwiększyć wydajność sztucznej inteligencjiSukces sztucznej inteligencji chińskiego startupu Deepseek podważył tezę, że sztuczna inteligencja rzeczywiście potrzebuje coraz większej mocy obliczeniowej. Według firmy Deepseek wyszkolił swojego chatbota przy użyciu mniejszej liczby mniej wydajnych układów scalonych, a i tak osiągnął wydajność porównywalną z najlepszym modelem Open AI. W artykule badawczym Deepseek wyjaśnia techniki, które wykorzystał w celu osiągnięcia wydajniejszej sztucznej inteligencji. Inni twórcy sztucznej inteligencji mogą wdrożyć te innowacje we własnych modelach.
Jeśli uda się zaoszczędzić moc obliczeniową, centra danych będą również zużywać mniej prądu. Babak Falsafi mówi także: „Ulepszenia algorytmów mogą sprawić, że będą one bardziej wydajne, a tym samym pozwolą oszczędzać energię”.
W rzeczywistości algorytmy, które efektywniej uczą sztuczną inteligencję, niekoniecznie zmniejszają zapotrzebowanie na energię w całościowych zastosowaniach sztucznej inteligencji. Sprawiają, że sztuczna inteligencja jest tańsza, a przez to bardziej atrakcyjna dla użytkowników. W miarę jak coraz więcej osób i firm będzie korzystać ze sztucznej inteligencji, zużycie energii elektrycznej ponownie wzrośnie. Koszty i zapotrzebowanie na energię zmieniają się wówczas dopiero ze szkolenia na zastosowanie.
Firmy technologiczne inwestują w nowe technologie energetyczneDlatego Microsoft stawia na energię jądrową i finansuje ponowne uruchomienie elektrowni jądrowej Three Mile Island, która została zamknięta w 2019 r. Elektrownia nie była już rentowna. Jesienią Amazon i Google ogłosiły duże inwestycje w tzw. „Małe reaktory modułowe”. Te małe, modułowe elektrownie jądrowe generują do 300 megawatów energii i mogą bezpośrednio dostarczać energię elektryczną do centrów danych. Żadna z tych małych elektrowni jądrowych nie jest jeszcze podłączona do sieci w USA i nie jest nawet bliska uruchomienia.
Sam Altman opiera się na start-upach takich jak Oklo, które opracowuje małe reaktory jądrowe wykorzystujące odpady radioaktywne jako paliwo. Inwestuje również w Helion, firmę specjalizującą się w fuzji jądrowej. Altman inwestuje setki milionów dolarów w sektor energetyczny, mając nadzieję na przełom.
Ale do przełomu jeszcze daleka droga. Mogą minąć lata, a nawet dziesięciolecia, zanim nowe formy produkcji energii zapewnią wystarczającą ilość energii elektrycznej. Do tego czasu centra danych będą często zasilane energią pochodzącą z paliw kopalnych. Ponieważ szum wokół sztucznej inteligencji pochłania dziś mnóstwo prądu.
nzz.ch