Big Tech ma problem z AI. Brakuje chipów i czasu!

Sztuczna inteligencja potrzebuje dziś trzech rzeczy: ogromnej mocy obliczeniowej, taniej i stabilnej energii oraz czasu. I właśnie czasu zaczyna najbardziej brakować. Popyt na AI wystrzelił szybciej niż da się fizycznie zbudować centra danych, przyłącza energetyczne i infrastrukturę pod GPU.

W tę lukę weszły neocloudy. Spółki, które w kilka miesięcy potrafiły dać inwestorom setki procent zysku, bo oferują dokładnie to, czego rynek potrzebuje tu i teraz: moc obliczeniową bez czekania trzech lat w kolejce u Big Techu.

Tylko że pojawia się kluczowe pytanie. Czy neocloudy to trwały element ekosystemu AI, czy tylko tymczasowy most, który zniknie, gdy Amazon, Microsoft i Google nadrobią zaległości infrastrukturalne?

Bo jeśli to most, to dzisiejsze wyceny mają datę ważności, ale jeśli to trwały węzeł systemu, to mówimy o zupełnie innej historii inwestycyjnej.

W tym materiale rozbieram neocloudy na czynniki pierwsze i szukam odpowiedzi na pytanie, gdzie naprawdę zarabiają, gdzie są największe ryzyka i kto na końcu tej układanki ma przewagę.

Big Tech ma problem z AI. Brakuje chipów i czasu!

Załóż konto na Freedom24 i odbierz nawet 20 darmowych akcji o wartości nawet kilkaset dolarów każda!

Szczegółowy opis promocji znajdziesz na: https://freedom24.club/dnarynkow_broker

Czym są neocloudy i czym różnią się od klasycznej chmury

Żeby w ogóle rozmawiać o neocloudach, trzeba najpierw uporządkować podstawy.

Klasyczna chmura to w skrócie wynajem infrastruktury IT. Zamiast kupować własne serwery, budować serwerownię, martwić się o prąd, chłodzenie i administrację, po prostu płacisz za dostęp do cudzych zasobów. Tyle i aż tyle. Dla firmy, szczególnie mniejszej to ogromna wygoda, elastyczność i przede wszystkim brak ogromnych inwestycji na własną infrastrukturę.

Neocloud to zupełnie inna konstrukcja, choć na pierwszy rzut oka wygląda podobnie. To nadal wynajem, ale infrastruktura jest projektowana od zera pod jeden bardzo konkretny cel: obliczenia związane ze sztuczną inteligencją. Nie uniwersalne serwery pod wszystko, tylko wyspecjalizowane klastry GPU z myślą o zastosowaniach w obszarze sztucznej inteligencji.

Klienci tych firm mogą wynajmować moce obliczeniowe należące do neocloudów na potrzeby trenowania modeli oraz wnioskowania. Czym to się różni?

Trenowanie modeli to moment, w którym algorytm uczy się na gigantycznych zbiorach danych. Ten etap pochłania absurdalne ilości mocy obliczeniowej, trwa długo i wymaga najnowocześniejszego sprzętu. To właśnie tutaj liczy się dostęp do dużych, spójnych klastrów GPU, szybkie połączenia między nimi i stabilna energia.

Drugi etap to wnioskowanie, czyli używanie już wytrenowanego modelu. To jest ta część, którą widzisz jako użytkownik: zapytanie, odpowiedź, rekomendacja, analiza obrazu. Wnioskowanie też kosztuje, ale skala i charakter obciążeń są inne. Często liczy się niskie opóźnienie i dostępność, a nie maksymalna moc w jednym momencie.

Dlaczego neocloudy w ogóle powstały

Neocloudy nie powstały dlatego, że ktoś wpadł na sprytny pomysł biznesowy i dorobił do niego narrację o AI. One powstały z bardzo prostej przyczyny. Popyt wystrzelił szybciej, niż dało się fizycznie dostarczyć infrastrukturę.

Rynek AI w pewnym momencie uderzył w twardą ścianę. Zapotrzebowanie na moc obliczeniową rosło i dalej rośnie w absurdalnym tempie, co widać po wynikach Nvidii oraz po wydatkach inwestycyjnych Big Techów.

CapEx Big Tech (MAG7) – eksplozja nakładów inwestycyjnych napędzana AI i centrami danych

Tymczasem infrastruktura okazała się wąskim gardłem. GPU nie są problemem samym w sobie. Problemem jest to, gdzie je postawić, czym zasilić i jak odprowadzić ciepło, które produkują.

Klasyczne centra danych były projektowane pod zupełnie inny świat. Pod serwery CPU, niższą gęstość mocy i bardziej przewidywalne obciążenia. Tymczasem klastry GPU to potężna koncentracja energii na bardzo małej powierzchni. Szafy serwerowe zużywają wielokrotnie więcej prądu, generują ekstremalne ilości ciepła i wymagają zupełnie innej architektury chłodzenia, coraz częściej nie powietrzem, tylko cieczą.

Do tego dochodzi energia. Można mieć pieniądze, sprzęt i działkę, ale jeśli nie ma przyłącza o odpowiedniej mocy, to pozostaje pusty budynek. Proces uzyskania takich przyłączy potrafi się ciągnąć, a sieci energetyczne w wielu regionach nie są gotowe na taką koncentrację poboru mocy.

I jeszcze czas. Budowa nowoczesnego centrum danych pod AI to nie jest projekt na kwartał. Od decyzji inwestycyjnej, przez pozwolenia, projekt, budowę i uruchomienie, mijają często lata. A popyt na AI nie czeka.

Neocloudy wypełniły tę lukę. Zaczęły budować albo adaptować infrastrukturę dokładnie pod ten problem: wysoką gęstość mocy, agresywne chłodzenie, gotowe przyłącza energetyczne i możliwie najszybszy czas uruchomienia.

Pomimo szybkiego tempa rozwoju neocloudy odpowiadają dziś za zaledwie około 3% globalnego rynku chmurowego. Dominującą pozycję utrzymują natomiast trzej hyperscalerzy: Amazon (AWS), Microsoft (Azure) oraz Google (Google Cloud). Jednak kluczowe jest to, że nie wszystkie centra danych tych rynkowych liderów były stawiane z myślą o trenowaniu modeli AI. Nawet zdecydowana większość z nich nie była stawiana z myślą o tym.

Globalny rynek chmury: zmiany udziałów rynkowych głównych dostawców (AWS, Azure, Google)

To właśnie dlatego ten segment w ogóle się pojawił. Jako odpowiedź na fizyczne ograniczenia świata, w którym AI przestało być eksperymentem, a zaczęło być przemysłową skalą obliczeń.

Model biznesowy neocloudów: gdzie są przychody i koszty

Jeśli jednak zdjąć z neocloudów całą narrację o rewolucji AI, zostaje dość surowy biznes infrastrukturalny. I właśnie dlatego trzeba go rozłożyć na części pierwsze.

Zacznijmy od tego, co neocloud faktycznie sprzedaje. Podstawowym produktem są godziny pracy GPU. Klient płaci za dostęp do konkretnej mocy obliczeniowej przez określony czas. Czasem jest to czysty wynajem sprzętu, czasem gotowe środowisko pod trenowanie modeli, a czasem pakiet z dodatkowymi narzędziami do zarządzania zadaniami, danymi czy orkiestracją obliczeń. Ale rdzeń pozostaje ten sam. Dostęp do GPU, czyli odpowiednich układów scalonych.

Druga sprawa to sposób sprzedaży. I tu pojawiają się dwa zupełnie różne modele. Pierwszy to wynajem na żądanie. Wchodzisz, rezerwujesz zasoby, płacisz za godzinę i wychodzisz. Elastyczne, szybkie, ale bardzo wrażliwe na wahania popytu. Drugi model to dłuższe kontrakty. Klient zobowiązuje się na miesiące albo lata, często rezerwując konkretną liczbę GPU. Dla neocloudu to większa przewidywalność przychodów, dla klienta niższa stawka. Różnica między tymi dwoma podejściami ma ogromny wpływ na stabilność wyników finansowych.

Teraz przechodzimy do kosztów, bo to tutaj najczęściej pojawia się pierwsza rysa. Po pierwsze kolokacja, czyli koszt fizycznego utrzymania sprzętu w centrach danych. Po drugie energia, która przy klastrach GPU staje się jednym z głównych składników kosztowych. Po trzecie finansowanie sprzętu. GPU są drogie, a często kupowane na kredyt albo leasing, co oznacza stałe obciążenie finansowe. I wreszcie starzenie się sprzętu. Nowa generacja GPU potrafi sprawić, że wczorajszy topowy klaster zaczyna być sprzedawany z rabatem, bo klienci chcą tego najnowszego.

Na końcu zostaje to, co faktycznie generuje wynik finansowy. Po pierwsze wykorzystanie mocy. Puste GPU nie zarabiają. Po drugie stawka, jaką da się utrzymać na godzinę obliczeń, co zależy od podaży na rynku i siły negocjacyjnej klientów. Po trzecie miks kontraktów. Im więcej długoterminowych umów, tym mniejsza zmienność, ale często kosztem niższej ceny jednostkowej. I po czwarte koszt kapitału, bo to on decyduje, ile spółka będzie płacić za kupiony na kredyt sprzęt.

W efekcie neocloudy nie wygrywają tym, że są powiązane z AI. Wygrywają albo przegrywają bardzo klasycznymi zmiennymi: stopniem wykorzystania mocy, siłą negocjacyjną, kontraktami i kosztem kapitału. Cała reszta to tylko opakowanie.

Tu możemy dojść do wniosku, że neocloudy to w sumie „prosty” i dość staromodny biznes, gdzie tak naprawdę liczy się sprawność operacyjna, siła negocjacyjna, czy warunki rynkowe, a nie przewaga technologiczna w zakresie sztucznej inteligencji i technologiczne know-how.

Mimo wszystko wzrost tego sektora jest napędzany nowymi technologiami i dlatego zgodnie z prognozami, rynek dostarczania układów scalonych GPU jako usługi ma rosnąć przez kolejną dekadę w tempie około 27% rocznie!

Rynek GPU-as-a-Service – dynamiczny wzrost wartości do 2034 r.

Tylko znów trzeba się zastanowić, dlaczego ten rynek tak rośnie? W końcu hyperscalerzy, tacy jak Amazon, mają wszystko, czego neocloudom brakuje. Platformy, ekosystemy, miliony klientów, sprzedaż, dystrybucję i zdolność pakowania mocy obliczeniowej w gotowe usługi i produkty. Ale jest jedna rzecz, której nawet oni nie potrafią wyczarować z dnia na dzień: czas. Przyłącza energetyczne, pozwolenia, budowa i uruchomienie infrastruktury pod najnowsze GPU zajmują lata, niezależnie od skali firmy.

I tu wchodzą neocloudy. Nie jako konkurencja dla Amazona czy Googla, tylko jako bufor podaży. Dostarczają moc obliczeniową tam, gdzie zapotrzebowanie jest tu i teraz, a infrastruktura hyperscalerów jeszcze nie nadążyła. Dla klientów oznacza to możliwość trenowania modeli bez czekania w kolejce. Dla gigantów oznacza to wentyl bezpieczeństwa, który zmniejsza presję na własne zasoby. Sami giganci często korzystają z usług neocloudów, żeby uzupełnić brakujące im moce obliczeniowe.

Jednak w tym miejscu cała gra inwestycyjna sprowadza się do jednego pytania. Jak długo potrwa ta luka? Jeśli rozbudowa infrastruktury przez gigantów będzie wolniejsza niż rosnący popyt, neocloudy mogą stać się trwałym elementem ekosystemu. Jeśli jednak hyperscalerzy nadrobią zaległości, postawią własne centra danych i zapewnią podaż GPU na masową skalę, rola neocloudów może się skurczyć do niszowych zastosowań. Dlatego to nie jest zakład na to, czy neocloudy są potrzebne dziś. One są potrzebne. To jest zakład na to, czy za kilka lat nadal będą potrzebne w tej samej skali.

Trzy typy neocloudów i przykłady spółek

Zanim spróbujemy odpowiedzieć na to pytanie, pochylmy się jeszcze nad ryzykami.

Neocloudy można dość czytelnie podzielić na trzy typy, które różnią się nie tylko modelem biznesowym, ale też profilem ryzyka.

Pierwszy to czysty neocloud. Spółka, której core biznesu to dostarczanie mocy GPU i środowisk pod AI. Bez wielkich pobocznych narracji. Kupują lub finansują sprzęt, stawiają klastry i sprzedają godziny obliczeń klientom. Przewaga, jeśli w ogóle się pojawia, wynika z szybkości uruchamiania mocy, relacji z dostawcami sprzętu i zdolności do utrzymania wysokiego wykorzystania GPU. Problem jest oczywisty. To biznes bardzo bliski komodytyzacji, w którym presja cenowa potrafi być bezlitosna.

Dla wyjaśnienia: komodytyzacja to proces, w którym produkt przestaje się realnie różnić od konkurencji i zaczyna być traktowany jak towar masowy.

Drugi to neocloud z warstwą software i dodatkowymi projektami. Tutaj sama moc obliczeniowa nie jest jedynym produktem. Spółka próbuje dokleić oprogramowanie do zarządzania obliczeniami, narzędzia dla zespołów AI, platformy do trenowania modeli albo inne usługi, które zwiększają przywiązanie klienta. Czasem obok neocloudu funkcjonują jeszcze zupełnie inne segmenty biznesu. Taki miks może poprawiać marże i zmniejszać ryzyko czystej wojny cenowej.

Trzeci to pivot z innej branży. Najczęściej są to kopalnie kryptowalut, które dokonują tranformacji swoich aktywów, żeby móc je wykorzystać do trenowania modeli AI zamiast do wydobywania Bitcoina. Takie firmy mają przyłącza, działki, budynki, czasem tanią energię. Dzięki temu mogą szybciej wejść w neocloud niż start-up budujący wszystko od zera. Z drugiej strony AI nie zawsze jest tu głównym motorem strategii, tylko jednym z kierunków rozwoju, co zmienia dynamikę takiej inwestycji.

Możemy pójść krok dalej. Spójrzmy na trzy spółki, które dobrze pokazują, jak różne mogą być modele w tej samej etykietce. To są trzy różne zwierzęta w tym samym zoo.

CoreWeave to najbardziej klasyczny przykład neocloudu w wersji na sterydach. Firma skupia się na dostarczaniu dużej mocy GPU i dokłada do tego własną warstwę software, czyli narzędzia, które ułatwiają klientom uruchamianie i skalowanie obliczeń. Działa głównie w USA, ale ma też obecność w Europie, a jej skala jest największa w tej trójce. Mówimy o 41 centrach danych i niemal 600 MW dostępnej mocy.

CoreWeave – globalna mapa centrów danych i zakontraktowanej mocy

Najgłośniejszym newsem jest relacja z OpenAI: kontrakt pięcioletni ogłoszony w marcu 2025 roku na niecałe 12 mld USD, a potem kolejne rozszerzenia w 2025 r., które łącznie podniosły wartość tej serii umów do około 22,4 mld USD. W liczbach operacyjnych też to widać: w pierwszych dziewięciu miesiącach 2025 roku przychody wyniosły około 3,5 mld USD, co oznacza wzrost o 205% rok do roku. Jako ciekawostka rynkowa, na początku stycznia 2026 roku kurs był około 100% wyżej niż na debiucie w marcu 2025 roku.

CoreWeave – wysoka zmienność kursu akcji przy bardzo silnych stopach zwrotu

Druga spółka, czyli Nebius, rozwija centra danych w USA i Europie, a flota GPU jest na poziomie kilkudziesięciu tysięcy. Istotny kontekst, który część inwestorów analizuje osobno, to powiązania części założycieli i kadry z Yandexem, czyli rosyjskim Googlem.

Nebius – globalna obecność operacyjna i lokalizacje centrów danych

Nebius ma też inne aktywności w grupie, na przykład Avride w obszarze autonomicznej mobilności, więc to nie jest czyste GPU i koniec. Jeśli chodzi o to, co napędza oczekiwania, mocno wybija się kontrakt z Microsoftem z września 2025 roku: umowa pięcioletnia na 17,4 mld USD, z opcją wzrostu do 19,4 mld USD, jeśli Microsoft dobierze dodatkowe usługi. Nebius komunikuje też ambicję bardzo mocnego wzrostu powtarzalnych przychodów, celując na koniec 2026 r. w okolice 7 do 9 mld USD ARR, gdzie ta umowa ma być jednym z kluczowych motorów. W ujęciu rynkowym, na początku stycznia 2026 roku spółka była około 174% wyżej niż rok temu!

Nebius – gwałtowny wzrost przychodów i reakcja kursu akcji

Z notowanych na giełdzie firm, mamy jeszcze IREN. Jest to zupełnie inna historia, bo to pivot. Firma wywodzi się z wydobycia bitcoina i dopiero niedawno zaczęła skręt w stronę AI. Jej przewaga startowa nie wynika z najlepszej platformy chmurowej, tylko z tego, że miała już zaplecze infrastrukturalne i energetyczne, które można wykorzystać pod obliczenia. Skala GPU jest tu najmniejsza z tej trójki, mowa o kilku do kilkunastu tysięcy jednostek. IREN ma australijskie korzenie, a centra danych w Kanadzie i USA.

Rozwój infrastruktury data center w Ameryce Północnej – kluczowe lokalizacje mocy

Charakterystyczne jest podejście produktowe: firma podkreśla model „bare metal”, czyli dostarczanie zasobów bez narzucania własnej warstwy oprogramowania, argumentując to tym, że jej klienci to duże firmy, które wolą budować własny stos technologiczny. W oczekiwaniach rynku ważny jest kontrakt z Microsoftem z listopada 2025 roku: około 9,7 mld USD na 5 lat, z 20% przedpłatą i wdrożeniami etapowanymi przez 2026 rok, komunikowanymi jako dostęp do GPU klasy NVIDIA GB300. Jednocześnie trzeba pamiętać o strukturze biznesu: w momencie, gdy rynek zaczął wyceniać AI, przychody IREN w dużej mierze pochodziły jeszcze z działalności bitcoinowej, a segment chmurowy miał być dopiero szybko skalowany. Kursowo ta spółka urosła o szalone 340% w zaledwie rok, co pokazuje, jak mocno rynek potrafi nagradzać „pivot” w środku boomu na AI.

Spółki AI i infrastruktury vs Big Tech – porównanie stóp zwrotu (12M)

Te trzy przykłady robią jedną ważną rzecz: pokazują, że „neocloud” to nie jeden biznes, ale różne podejście do tej samej kwestii. Najważniejsze z perspektywy inwestora jest jednak to, że w otoczeniu niedoborów mocy obliczeniowej wszystkie te spółki zaliczają szalony wzrost na przychodach. W 2025 roku ten wzrost sięgnął od 205% w przypadku CoreWeave, aż do 452% w przypadku Nebiusa. To pokazuje, dlaczego inwestorzy rzucili się na te akcje.

Przychody CoreWeave, Nebius i IREN – skokowa dynamika wzrostu r/r

NVIDIA i strategiczna rola neocloudów

 Omówiliśmy sobie po krótce kilka kluczowych firm z sektora, ale nie można w dzisiejszych czasach rozmawiać o AI, bez wspominania o Nvidii.

Teraz spróbujmy spojrzeć na całą układankę oczami NVIDII.

NVIDIA sprzedaje sprzęt GPU, czyli to, czym neocloudy wypełniają swoje centra danych. Jej biznes polega na tym, żeby jak najwięcej GPU trafiło do pracy i żeby klienci kupowali kolejne generacje, zanim poprzednie zdążą się zestarzeć. Z tego punktu widzenia idealny świat NVIDII to nie taki, w którym całą moc obliczeniową świata kontroluje kilku gigantów, tylko taki, w którym GPU kupuje jak najszersza grupa podmiotów.

Dlaczego? Bo koncentracja klientów zawsze wzmacnia pozycję negocjacyjną kupującego. Jeśli większość popytu skupia się w rękach kilku hyperscalerów, to oni zaczynają dyktować warunki: ceny, terminy dostaw, priorytety produkcyjne. Dla producenta sprzętu to ryzykowna sytuacja. Duży klient jest wygodny, ale też niebezpieczny, bo potrafi mocno naciskać.

Neocloudy rozwiązują trochę ten problem. Dla NVIDII są sposobem na rozproszenie popytu. Zamiast sprzedawać wszystko kilku platformom, sprzedaje GPU wielu mniejszym graczom, którzy potem sami dystrybuują moc obliczeniową dalej. To zmniejsza zależność od pojedynczych klientów i stabilizuje cały ekosystem.

Dlatego to nie jest przypadek, że NVIDIA nie tylko sprzedaje GPU neocloudom, ale też ma udziały kapitałowe w części z nich. NVIDIA jest udziałowcem m.in. CoreWeave i Nebiusa.

Ekspozycja Nvidii na kluczowe spółki infrastruktury AI – koncentracja portfela

To bardzo czytelny sygnał strategiczny. NVIDIA nie traktuje neocloudów jak tymczasowych klientów, tylko jak element infrastruktury, który warto wspierać również kapitałowo.

Z punktu widzenia NVIDII neocloud to coś więcej niż kolejny odbiorca sprzętu. To partner, który:

• przyspiesza wdrażanie nowych generacji GPU,
• zwiększa dostępność mocy obliczeniowej na rynku,
• i dociera do klientów, do których NVIDIA sama by nie dotarła.

Neocloudy skracają drogę od fabryki do realnych obliczeń. Dla rynku oznacza to większą dostępność AI. Dla NVIDII oznacza to większą sprzedaż tu i teraz, mniejszą koncentrację ryzyka i większą kontrolę nad tempem rozwoju całego ekosystemu.

Krótko mówiąc: NVIDIA nie wspiera neocloudów z sympatii do start-upów. Wspiera je, bo pomagają jej sprzedawać więcej „kilofów” w czasie gorączki złota i robić to na własnych warunkach. Jeśli GPU jest kilofem, to centra danych są kopalniami. Jasne jest, że im więcej kopalni, tym lepiej dla producenta kilofów.

Największe ryzyka inwestycyjne neocloudów

Ostatecznie neocloudy wyglądają atrakcyjnie wtedy, gdy patrzy się na rosnący popyt na AI i wykresy przychodów. Ale pod spodem jest zestaw ryzyk, które potrafią bardzo szybko zmienić narrację z nowych liderów infrastruktury w biznes pod silną presją. I te ryzyka warto zebrać w jednym miejscu. Ponieważ teraz materializuje się scenariusz optymistyczny, ale każdy poważny inwestor powinien się zastanowić, jak duże jest ryzyko realizacji scenariusza negatywnego. Im więcej ryzyk w biznesie, tym większa na to szansa. O jednym już wspomniałem wcześniej, czyli o tym, czy neocloudy będą w stanie zadomowić się w całym ekosystemie, w sytuacji, kiedy niedobory ze strony gigantów się skończą, ale to nie wszystko.

Pierwsze ryzyko to brak trwałej przewagi, brak tej Buffetowej fosy. Jeśli neocloud sprzedaje głównie dostęp do GPU, a jego oferta niewiele różni się od konkurencji, usługa zaczyna się komodytyzować, czyli przypomina makaron na półce w sklepie. Nic go nie wyróżnia. W takim świecie wygrywa nie ten, kto ma najlepsze know-how, historię o AI, tylko ten, kto ma najniższy koszt i najwyższe wykorzystanie mocy. Gdy podaż zacznie rosnąć szybciej niż popyt, ceny godzin GPU spadną, a marże mogą się boleśnie skurczyć.

Zresztą przypominam, jak szybko Nvidia wprowadza nowe układy scalone na rynek. Jeszcze niedawno wszyscy żyli Blackwellem, a dziś już słuchamy o układach Rubin. Kiedy spojrzymy na ceny wynajmu poprzedniego hitowego układu, czyli Hopper H100, widać, że te ceny potrafią spadać i to dość szybko.

Indeks krótkiej sprzedaży – zmiany sentymentu rynkowego wobec spółek AI

Drugie ryzyko to struktura kosztowa i uzależnienie od kolokacji. Wiele neocloudów nie posiada własnych centrów danych, tylko wynajmuje miejsce w cudzej infrastrukturze. To oznacza duże stałe koszty, ograniczoną elastyczność i ekspozycję na wzrost cen energii oraz usług data center. Jeśli przychody nie rosną zgodnie z planem albo wykorzystanie GPU spada, to i tak koszty zostają. I to one zaczynają decydować o wyniku.

Trzecia rzecz to koncentracja klientów. Wcześniej mówiłem o dużych kontraktach z OpenAI czy Microsoftem. Duże kontrakty robią wrażenie w prezentacjach, ale z punktu widzenia ryzyka oznaczają zależność od kilku podmiotów. Gdy jeden klient odpowiada za znaczącą część przychodów, każda renegocjacja stawki, opóźnienie wdrożenia albo zmiana strategii klienta uderza bezpośrednio w wyniki neocloudu. A im większy klient, tym większa jest jego siła negocjacyjna.

W przypadku CoreWeave w pierwszych trzech kwartałach 2025 roku dominujący klient odpowiadał tam za aż 70% sprzedaży, co stanowi wyraźny wzrost względem 58% odnotowanych w analogicznym okresie 2024 roku.

Podobne tendencje obserwujemy u innych graczy. W przypadku IREN kontrakt zawarty w listopadzie 2025 roku implikuje, że na koniec 2026 roku Microsoft będzie generował około 57% powtarzalnych rocznych przychodów (ARR). Z kolei w Nebiusie nowa umowa wrześniowa wskazuje na rosnącą zależność od giganta z Redmond. Jego udział w szacowanym powtarzalnym rocznym przychodzie na koniec 2026 roku może wynieść około 43%.

Ryzyko koncentracji przychodów w neocloudach: CoreWeave vs IREN

Czwarty element to cykl życia GPU. Sprzęt, który dziś jest topowy, za dwa lata może być „poprzednią generacją”. Nowe GPU oferują lepszą wydajność i niższy koszt jednostkowy obliczeń, więc klienci naturalnie chcą z nich korzystać. To oznacza presję cenową na starsze klastry i ryzyko, że część inwestycji trzeba będzie monetyzować po gorszych stawkach, niż zakładano na starcie. Co więcej, może się okazać, że postęp technologiczny w tym zakresie będzie tak duży, że GPU w centrach danych trzeba będzie wymieniać częściej, niż zakładano, a to przełoży się bezpośrednio na koszty amortyzacji i niezbędne inwestycje.

To ryzyko naturalnie łączy się ze zwrotem z inwestycji w GPU. Czołowi dostawcy mocy obliczeniowej, tacy jak CoreWeave i Nebius, szacują okres zwrotu z inwestycji (cash payback) w układy GPU na 2,5–3,0 lata. Najbardziej transparentna spółka IREN początkowo wskazywała na 2-letni zwrot z samych jednostek, jednak po zawarciu 5-letniego kontraktu z Microsoftem horyzont ten wydłużył się do 3 lat dla GPU oraz 5 lat dla całego pakietu z infrastrukturą data center. Tymczasem już dziś pojawiają się komentarze analityków, którzy oceniają, że układy scalone pod AI przy obecnym tempie rozwoju trzeba będzie wymieniać co około 4 lata.

Ekonomia tych inwestycji opiera się na wysokich stawkach jednostkowych. Na przykład IREN zakupił 76 tys. układów GB300 za łączną kwotę 5,8 mld USD, co daje około 76 tys. USD za sztukę. Przy obecnych stawkach i konserwatywnym założeniu 50% wykorzystania, roczny przychód z jednej karty wynosi 24–38 tys. USD. Pozwala to na osiągnięcie lewarowanego IRR w szerokim przedziale od 10% do nawet 50%, w zależności od poziomu zadłużenia oraz wartości sprzętu po zakończeniu kontraktu.

Na pierwszy rzut oka ten zwrot wydaje się atrakcyjny, ale inwestorzy muszą liczyć się z ryzykiem komodytyzacji usług neocloudów, co może wydłużyć okresy zwrotu. Kluczowym zagrożeniem jest szybkie starzenie się technologii i spadek rentowności starszych generacji układów, czyli to, o czym była mowa wcześniej. Ponadto standardowe wyliczenia okresu zwrotu, podawane przez spółki, często pomijają istotne koszty pośrednie, takie jak rozwój warstwy software, obsługa korporacyjna czy wysokie opłaty za dostęp do infrastruktury, które realnie obciążają końcowy wynik finansowy.

Idziemy dalej. Piąte ryzyko to finansowanie i dźwignia. Neocloudy są kapitałochłonne. Sprzęt, przyłącza, wdrożenia i skalowanie wymagają dużych nakładów, często finansowanych długiem lub strukturami zewnętrznymi. Tutaj szczególnie wyróżnia się CoreWeave, którego wskaźnik długu netto do EBITDA sięga niemal 8 razy. Przypomnę, że wartości powyżej 5–6 są już uważane za niebezpieczne w większości biznesów. Całkowite zadłużenie spółki stanowi niemal pięciokrotność kapitału własnego. To potężna dźwignia. W połączeniu z dużymi kosztami stałymi i brakiem przewagi konkurencyjnej, to naprawdę mieszanka wybuchowa.

Poziom zadłużenia neocloudów – porównanie wskaźników ND/EBITDA i D/E (3Q 2025)

To wszystko nie oznacza, że neocloudy są skazane na porażkę. Oznacza tylko tyle, że to biznes, w którym ogromne ryzyko jest integralną częścią modelu. I jeśli ktoś je ignoruje, to nie inwestuje w neocloud, tylko w własne fantazje i wykres, który wzrósł o 200% w pół roku.

Kiedy w całej historii o AI, wielkich kontraktach z OpenAI i o Nvidii inwestującej w start-upy, cokolwiek zacznie się sypać, to można mieć pewność, że neocloudy dostaną mocno po głowie od rynku, bo inwestorzy właśnie od nich będą uciekać w pierwszej kolejności.

Neocloudy kontra Big Tech – kwestia horyzontu

Na koniec warto postawić sprawę jasno i bez emocji. Neocloudy nie są „złe”, ale też nie są automatycznie lepszym wyborem niż Big Tech tylko dlatego, że są bliżej hasła AI. Ich obecna atrakcyjność wynika z bardzo konkretnego momentu rynkowego: niedoboru mocy, opóźnień infrastrukturalnych i presji czasu po stronie klientów. To są warunki, które sprzyjają mniejszym, wyspecjalizowanym graczom. Pytanie brzmi, jak długo te warunki się utrzymają.

Big Tech ma przewagę tam, gdzie w długim terminie zawsze decydują liczby: niższy koszt kapitału, własna infrastruktura, kontrola nad energią, przyłączami i dystrybucją usług. Do tego platformy, które już dziś monetyzują AI w pakiecie z innymi produktami, a nie jako osobny, kapitałochłonny biznes. Neocloudy operują bliżej granicy opłacalności i są znacznie bardziej wrażliwe na spadek stawek, renegocjacje kontraktów czy opóźnienia inwestycyjne.

To sprawia, że dla inwestora neocloudy są raczej zakładem taktycznym niż strategicznym. Zakładem na to, że niedobór mocy potrwa dłużej, niż zakłada rynek. Big Tech to z kolei zakład na to, że w długim terminie wartość wraca tam, gdzie jest skala, synergia, know-how, integracja i kontrola kosztów.

I właśnie dlatego to nie jest wybór „albo albo”. To wybór horyzontu, tolerancji ryzyka i tego, czy inwestor gra na chwilowy brak podaży, czy na trwałą strukturę rynku.

Załóż konto na Freedom24 i odbierz nawet 20 darmowych akcji o wartości nawet kilkaset dolarów każda!

Szczegółowy opis promocji znajdziesz na: https://freedom24.club/dnarynkow_broker

Do zarobienia,
Piotr Cymcyk

Porcja informacji o rynku prosto na Twoją skrzynkę w każdą niedzielę o 19:00



    Chcę zapisać się do newslettera i wyrażam zgodę na przetwarzanie podanych przeze mnie danych zgodnie z Polityką Prywatności strony DNA Rynków.

    67
    5
    Zastrzeżenie prawne

    Materiały DNA Rynków, w szczególności aktualizacje Strategii DNA Rynków, Analizy spółek oraz Analizy sektorów są jedynie materiałem informacyjno-edukacyjnym dla użytku odbiorcy. Materiał ten nie powinien być w szczególności rozumiany jako rekomendacja inwestycyjna w rozumieniu przepisów „Rozporządzenia Delegowanego Komisji (UE) nr 2016/958 z dnia 9 marca 2016 r. uzupełniającego rozporządzenie Parlamentu Europejskiego i Rady (UE) nr 596/2014 w odniesieniu do regulacyjnych standardów technicznych dotyczących środków technicznych do celów obiektywnej prezentacji rekomendacji inwestycyjnych lub innych informacji rekomendujących lub sugerujących strategię inwestycyjną oraz ujawniania interesów partykularnych lub wskazań konfliktów interesów”. Skorzystanie z materiału jako podstawy lub przesłanki do podjęcia decyzji inwestycyjnej następuje wyłącznie na ryzyko osoby, która taką decyzję podejmuje. Autorzy nie ponoszą żadnej odpowiedzialności za takie decyzje inwestycyjne. Wszystkie opinie i prognozy przedstawione w tym opracowaniu są wyrazem najlepszej wiedzy i osobistych poglądów autora na moment publikacji i mogą ulec zmianie w późniejszym okresie.

    Subskrybuj
    Powiadom o
    guest
    0 komentarzy
    Inline Feedbacks
    View all comments