top of page

Moc Obliczeniowa motor Czwartej Rewolucji Przemysłowej, czyli kto wygra, a kto będzie przegranym i dlaczego to będzie Europa.

  • 12 lut
  • 8 minut(y) czytania

Jesteśmy w trakcie czwartej rewolucji przemysłowej. Pierwsza była powiązana z silnikiem parowym a następnie silnikiem spalinowym, druga to elektryczność, trzecia była związana z cyfryzacją, natomiast czwarta to AI, humanoidy, uczenie maszynowe, powiązane z gigantycznymi potrzebami energetycznymi. Tak jak poprzednie zadecydowały o miejscu poszczególnych krajów w świecie, tak i ta ustali nowy porządek światowy. Jednak z tego co zauważyłem, w Polsce naprawdę niewielu zdaje się dostrzegać nadchodzące tsunami. Rządzący nami, zresztą jak i wszyscy politycy nie mają pojęcia co się dzieje. Równie ślepe są media, o zgrozo łącznie z tymi komputerowymi, co już jest w ogóle jakąś aberracją. Poza nielicznymi inżynierami, świat nauki również nie dostrzega zmian, to co zauważa to AI, lecz traktuje ją jedynie jako szybką wyszukiwarkę lub ułatwienie w żmudnej pracy, w ogóle zdaje się nie widzieć ogromnego potencjału gospodarczego tkwiącego w połączeniu AI z humanoidami. O tym, że 38 milionów Polaków, bez względu na wiek traktuje AI jako zabawkę dla młodzieży, już nawet nie muszę się rozwodzić. Zresztą w całej Unii zauroczonej Czwartą Rewolucją Przemysłową, eurokraci zdają się nie rozumieć o co w tym wszystkim chodzi. Dla nich czwarta rewolucja, to mantry czyli inkluzywność i zrównoważony rozwój, i to wszystko. Istotą i motorem napędowym jednak jest Moc Obliczeniowa i powiązane z nią zasoby energetyczne, a w tej kwestii cała Europy idzie pod prąd, i to dosłownie. W chwili gdy wszyscy rozbudowują rezerwy energetyczne Europy likwiduje energetykę, czyli sama sobie zamyka szanse rozwoju.

Globalna moc obliczeniowa: co to oznacza?

W kontekście AI i dużych modeli językowych, „moc obliczeniową” najczęściej mierzy się nie tylko czystymi FLOPS, ale raczej przez Instalowaną moc centrów danych w gigawatach (GW) czyli ile energii IT może zużyć przy pełnej pracy.


Obecna moc centrów danych według regionów (Q1 2025)


USA ma zainstalowaną moc 53,7 GW co stanowi 44 % światowej mocy obliczeniowej.

Chiny to 31,9 GW - 26%

Europa to 11,9 GW - 10%

Japonia i Korea Południowa to 6,6 GW czyli 5 %

Indie to 3,6 GW czyli 3%

Reszta regionów to wartości około 1 - 1,4 GW, czyli około 1%


Globalnie na świeci zainstalowana moc obliczeniowa wynosi 122 GW.

Jej wielkość rośnie bardzo szybko. Można to porównać z rozwojem komputerów.


Całkowita moc centrów danych wzrosła z ~50 GW w 2015 do ~122 GW w 2025.

Co istotne trend napędzany przez AI wymaga coraz większego zużycia energii i infrastruktury.

Już w tej chwili rosną nierówności – wiele regionów (np. Afryka, Ameryka Łacińska, Azja Południowa) ma znaczne „luki mocy”, czyli potencjalne zapotrzebowanie na AI przekraczające dostępną infrastrukturę.


W kolejnych pięciu latach nastąpi gwałtowne zwiększanie mocy obliczeniowej. Do 2030 roku możemy się spodziewać, że:


Globalna moc centrów danych IT ma znacznie wzrosnąć w kolejnej dekadzie — jedne prognozy szacują wzrost do ~296 GW w 2028 r. (czyli ~12 % rocznie CAGR) i dalszy wzrost do 2030 r. zakładający kontynuację podobnej dynamiki.


Powiązany z tym będzie znaczący wzrost mocy dedykowanej AI

Do 2030 r. ok. 70 % całkowitego zapotrzebowania centrów danych może pochodzić z obciążeń związanych z AI (szkolenia modeli + wnioskowanie).

Moc przeznaczana wyłącznie na potrzeby AI może sięgać kilku gigawatów rocznie nowych instalacji przy dużych inwestycjach infrastrukturalnych.


Spowoduje to wzrost zapotrzebowanie na energię.

Najnowsze raporty IEA prognozują, że zużycie energii przez centra danych na świecie może ponad dwukrotnie wzrosnąć do 2030 r. — z ~415 TWh obecnie do około 945 TWh rocznie.

AI-optymalizowane centra danych mogą czterokrotnie zwiększyć swoje zużycie energii w tym okresie. Czyli ponad dwukrotny wzrost.


To zużycie energii jest bardzo silnie skorelowane z mocą obliczeniową: więcej GPU, więcej mocy chłodzenia, więcej instalacji wysokowydajnych serwerów — wszystkie te czynniki zwiększają zapotrzebowanie na energię.


Czego się możemy spodziewać do 2030 roku?

Rozwoju GPT, multimodalnych modeli, a także zastosowań przemysłowych i konsumenckich które znacząco podbijają popyt na moc obliczeniową i centra danych.

Coraz większych „hiperskali”.Wielkie centra danych hyperscale (AWS, Google, Microsoft, Alibaba, Tencent itd.) planują duże kampusy GPU/AI, co również napędza wielkość infrastruktury.

Ostatnim elementem są inwestycje i kapitałDo 2030 r. globalne inwestycje w infrastrukturę AI szacowane są na tryliony USD, co obejmuje budowę nowych centrów danych, zakup GPU/TPU i rozbudowę chmur.


Gdzie będą bariery?

Przede wszystkim energia.

Dynamiczny wzrost zużycia energii, centra danych będą odpowiadać za coraz większą część zużycia energii w niektórych krajach.

Związana z tym infrastruktura sieciowa.

Rosnący popyt na moc obliczeniową będzie mógł prowadzić do problemów z dostawą energii i siecią, co już teraz wymaga inwestycji w przesył i inne elementy infrastruktury.

Ostatnim elementem będzie wyposażenie i efektywność.

Dostępność nowoczesnych GPU/TPU i ich efektywność energetyczna będą kluczowe ponieważ tradycyjne podnoszenie mocy poprzez większe instalacje generuje ogromne zapotrzebowanie energii.


Najważniejszym pytaniem jest to, jaki będzie wpływ mocy obliczeniowych na rozwój gospodarczy?


Moc obliczeniowa (compute) staje się dziś tym, czym w XX wieku była ropa, stal czy elektryfikacja, kto ją posiada i kontroluje, ten zyskuje przewagę gospodarczą. Moc obliczeniowa staje się nowym fundamentem gospodarki. Będzie przekładać się bezpośrednio na: produktywność, innowacje, nowe sektory gospodarki, przyciąganie kapitału i talentów oraz co najważniejsze na dominację technologiczną.

Kto wygra?

🇺🇸 USA to obecnie lider gospodarki AI. USA mają największą koncentrację mocy obliczeniowej i hyperscalerów (Amazon, Google, Microsoft, OpenAI).

Już obecnie moc obliczeniowa przekłada się na efekty gospodarcze:

  • wzrost sektora AI jako nowego motoru PKB,

  • przewaga w farmacji, finansach, wojsku,

  • eksport technologii i usług chmurowych,

  • tworzenie „AI hubów” (np. Texas, Virginia).

To właśnie USA będą prawdopodobnie największym beneficjentem globalnego boomu compute.


🇨🇳 Kolejnym krajem są Chiny – gdzie następuje bardzo wysoki, równoległy rozwój do USA.

Chiny budują własny ekosystem mocy obliczeniowej, mimo ograniczeń chipowych.

Zainstalowana moc obliczeniowa przekłada się na:

  • Automatyzację przemysłu i logistyki,

  • wzrost produktywności w produkcji masowej,

  • AI jako narzędzie kontroli i planowania,

  • rozwój własnych gigantów technologicznych.

Zgodnie z przewidywaniami Chiny będą rosnąć szybciej w zastosowaniach przemysłowych niż konsumenckich.

🇪🇺 Europie grozi ryzyko zależności, ma mniejszą moc obliczeniową niż USA/Chiny, co grozi „importem AI”.

Jeśli Europa nie zwiększy mocy obliczeniowej, będzie to skutkować:

  • Spadkiem konkurencyjności firm,

  • Uzależnieniem od amerykańskich modeli,

  • Oraz odpływem startupów i talentów

Europa potrzebuje jednak infrastruktury.


🇮🇳 Indie mają największy potencjał wzrostu, póki co mają małą bazę compute, ale ogromny rynek, populację i sektor IT.

To czego się można spodziewać do 2030, to:

  • outsourcing AI i centrów danych,

  • rozwój usług cyfrowych dla miliarda ludzi,

  • przyciąganie inwestycji hyperscalerów,

  • szansa na zostanie „AI factory świata”.


🌏 Azja Wschodnia (Japonia, Korea, Singapur)

Ten region ma silny przemysł chipów, robotyki i elektroniki, dlatego skutkować będzie:

  • Automatyzacją produkcji,

  • Przewagą w robotach i AI hardware,

  • Wzrostem innowacji w medycynie i smart cities.


Bliski Wschód – planuje wykorzystać moc obliczeniową jako nową ropę. Obecnie ZEA i Arabia Saudyjska inwestują miliardy w centra danych i AI.


Afryce i Ameryce Łacińskie grozi ryzyko nowej nierówności, świat im po prostu ucieknie do przodu. Nastąpi „AI divide” – nowa przepaść rozwojowa.

Ogólna zasada do 2030, to im większa moc obliczeniowa w regionie, tym większy:

  • wzrost produktywności,

  • rozwój nowych branż,

  • napływ kapitału,

  • wpływ geopolityczny.

Compute stanie się „infrastrukturą rozwoju”, tak jak drogi i energia.


Do 2030 roku zobaczymy AI hubs zamiast klasycznych centrów przemysłowych, koncentrację bogactwa tam, gdzie są GPU i energia, nową rywalizację o prąd, chipy i centra danych oraz rosnącą nierówność między regionami

I teraz pojawia się bardzo istotne pytanie:

Czy jest możliwe rozwijanie mocy obliczeniowej bez tanich i stabilnych źródeł energii?


Bez taniej i stabilnej energii rozwijanie mocy obliczeniowej jest niemożliwe.

Compute i energia są dziś praktycznie nierozłączne.


Dlaczego moc obliczeniowa = energia?

Nowoczesne AI (zwłaszcza modele typu GPT) wymaga:

tysięcy GPU pracujących równolegle

ogromnych centrów danych

chłodzenia i infrastruktury sieciowej


To wszystko oznacza jedno:

Im więcej mocy obliczeniowej, tym większe zużycie energii.


Co się dzieje, gdy brakuje taniej i stabilnej energii?

Po pierwsze: koszty rosną wykładniczo

Energia jest jednym z głównych kosztów operacyjnych centrów danych.

Jeśli prąd jest drogi to trening modeli jest droższy, firmy uciekają do tańszych regionów a inwestycje spowalniają

Compute nie znika — po prostu migruje.


Po drugie: niestabilna sieć to niestabilne AI

Centra danych wymagają pracy 24/7.

Jeśli region ma: blackouty, przeciążenia sieci, brak infrastruktury przesyłowej, to nie da się tam budować klastrów AI na światowym poziomie.


Sytuacji nie rozwiąże zwiększenie efektywności sprzętu poprzez wiekszą wydajność GPU. Ponieważ popyt rośnie szybciej niż oszczędności.

To jak z samochodami co prawda spalają mniej, ale jeździmy więcej.


To co trzeba zrozumieć, to fakt iż w najbliższych latach głównym ograniczeniem AI nie będą algorytmy tylko: prąd, sieci przesyłowe, chłodzenie, dostęp do chipów.


„AI race is becoming an energy race”.


Regiony z tanią energią będą przyciągać centra danych i inwestycje.


Regiony z drogą lub niestabilną energią ryzykują pozostanie „konsumentami AI”, nie producentami.


Nie da się rozwijać dużej mocy obliczeniowej AI bez taniej i stabilnej energii — energia staje się fundamentem przewagi gospodarczej w erze AI.


Ile wobec tego będzie potrzebować energii?


Ile energii zużywa trening dużego modelu?

Punkt odniesienia: GPT-3 (2020)

Szacunki naukowe mówią, że trening GPT-3 (175B parametrów) wymagał ok.:

~1 000–1 300 MWh energii elektrycznej

To tyle co:

~120 gospodarstw domowych w Europie przez cały rok albo małe miasteczko przez kilka dni


Modele następnej generacji (2026–2030) będą prawdopodobnie:

multimodalne (tekst + obraz + wideo + agent), większe (więcej parametrów lub więcej danych), trenowane częściej (ciągłe ulepszanie).

To oznacza, że potrzebna energia będzie rosła nie liniowo, ale raczej skokowo.


Trening modelu klasy GPT-4/Claude 3

Szacunki branżowe mówią o:

10 000 – 50 000 MWh na jeden pełny trening

To odpowiada rocznemu zużyciu energii przez 5 000–15 000 domów


Modele frontier 2028–2030 (następna fala)

Jeśli trend się utrzyma, modele w okolicach AGI-level mogą wymagać:

100 000 – 1 000 000 MWh (0.1–1 TWh)

To już skala całego dużego miasta albo elektrowni pracującej tygodniami

1 TWh to roczne zużycie energii przez ok. 300 000 europejskich domów


Ale uwaga największy koszt to nie trening.

Największym wyzwaniem będzie inference (używanie modeli)

Trening jest jednorazowy. Ale codzienne użycie przez miliardy ludzi oznacza: miliony zapytań na sekundę, nieustanne działanie GPU, centra danych 24/7

Do 2030 większość energii AI pójdzie na wnioskowanie, a nie trening.


W skali globalnej do 2030, raporty IEA prognozują, że zużycie energii przez centra danych wzrośnie z ok. ~415 TWh dziś do ~900–1 000 TWh w 2030

AI będzie największym driverem tego wzrostu.

To oznacza podwojenie globalnej infrastruktury energetycznej dla cyfrowego świata.


Modele następnej generacji będą wymagały energii na poziomie elektrowni, nie serwerowni.

Dlatego przyszłość AI to nie tylko „kto ma najlepszy model”, ale:

- kto ma prąd - kto ma centra danych - kto ma stabilną sieć - kto ma magazyny energii


Ile elektrowni potrzeba, żeby „utrzymać AI dla Europy” w 2030?


Ile energii zużyją centra danych w Europie w 2030?

Dziś Europa ma ok. 10% globalnej mocy centrów danych.

Globalne zużycie energii centrów danych może wzrosnąć do ~900–1 000 TWh rocznie do 2030.

Jeśli Europa utrzyma udział ~10–15% to będzie potrzebować ~100–150 TWh rocznie na centra danych ogółem. Na samo AI będzie potrzeba ~60–90 TWh rocznie.


Przeliczając to na elektrownie

Typowa duża elektrownia (jądrowa lub gazowa) ma moc:

1 GW, ale nie pracuje 100% czasu.Realistyczny współczynnik pracy:

atom: ~90%

gaz: ~50–70%

wiatr/słońce: ~15–35%

Przyjmijmy stabilny mix i uprośćmy:

1 GW stabilnej mocy = ok. 8 TWh rocznie

(bo 1 GW × 8760 h ≈ 8.76 TWh)


Wobec tego ile elektrowni dla AI?

Skoro AI w Europie może potrzebować:

60–90 TWh rocznie

To liczba elektrowni 1 GW:

60 TWh / 8 ≈ 7–8 elektrowni

90 TWh / 8 ≈ 11–12 elektrowni


Europa, aby utrzymać dużą infrastrukturę AI w 2030, potrzebowałaby około:

8–12 dużych elektrowni (po 1 GW) dedykowanych tylko pod AI

To jest energia porównywalna z:

całym rocznym zużyciem prądu przez kraj typu Finlandia (AI-only)

kilkunastoma reaktorami jądrowymi

setkami dużych farm wiatrowych


A jeśli Europa chciałaby być w TOP2 jak USA?

Wtedy skala rośnie mocno.

Jeśli Europa chciałaby mieć np. 25% światowego compute potrzebowałaby 200–250 TWh rocznie

To oznacza 25–30 elektrowni 1 GW


A co jeśli postawimy na OZE?

Jeśli zamiast atomu użyć wiatru (capacity factor ~30%):

1 GW wiatru daje tylko ~2.5 TWh rocznie

Więc zamiast 10 elektrowni atomowych trzeba byłoby 30–40 GW farm wiatrowych

To są tysiące turbin.


Najważniejszy wniosek to AI w 2030 będzie planowana jak do niedawna przemysł ciężki:

wymaga elektrowni

wymaga sieci przesyłowych

wymaga chłodzenia i wody

wymaga stabilności energetycznej

Dlatego przyszłość AI w Europie zależy bardziej od energetyki, infrastruktury i magazynów energii

niż od samych algorytmów.


A co z Polską?

Polska może realnie potrzebować od około 1–3 dużych elektrowni (1 GW każda) do zasilania infrastruktury AI do 2030 r., w zależności od tempa rozwoju rynku i udziału AI w zapotrzebowaniu centrów danych.


Rozumiecie teraz dlaczego dosłownie wszyscy rozbudowują swoje moce energetyczne, budując elektrownie dosłownie wszelkiego rodzaju?

W tym czasie Unia uchwaliła zeroemisyjność, czyli stawia jedynie na drogie, nisko wydajne elektrownie wiatrowe, no bo przecież paneli chyba nikt nie traktuje poważnie. To oznacza koniec Europy. Unia sama się wyklucza z Czwartej Rewolucji Przemysłowej, mało tego eurokraci chcą się wycofać z pierwszej rewolucji ale również i z drugiej rewolucji przemysłowej, bo już trzecia de facto ominęła Europę.

A Polska? Polska nie ma szans wejść w AI z powodu braku energii.

Problem w tym, że nikt tego nie chce zrozumieć.


Komentarze


Kontakt

Thanks for submitting!

© 2023 by Train of Thoughts. Proudly created with Wix.com

bottom of page