Anthropic, firma kierowana przez Dario Amodeia, niedawno podpisała umowę wartą 1,8 miliarda dolarów z Akamai Technologies w celu zapewnienia większych mocy obliczeniowych dla swoich modeli AI, w szczególności dla platformy Claude.
Umowa, ważna przez siedem lat, jest największym kontraktem w historii Akamai i pojawia się w czasie, gdy zapotrzebowanie na infrastrukturę AI rośnie w tempie coraz trudniejszym do utrzymania nawet dla największych firm technologicznych.
Za wspomnianą operacją stoi nie tylko rozwój Anthropic, ale także szersze przemiany na całym rynku chmurowym.
W ostatnich miesiącach sektor sztucznej inteligencji ujawnił coraz wyraźniejszy problem strukturalny.
Mianowicie taki, że budowanie zaawansowanych modeli AI wymaga ogromnych mocy obliczeniowych, wyspecjalizowanych GPU oraz rozproszonych infrastruktur zdolnych do obsługi ciągłych obciążeń.
Nie bez powodu, podczas konferencji Code with Claude w San Francisco, Amodei oświadczył, że Anthropic odnotuje 80% wzrost rocznych przychodów oraz wykorzystania swoich usług w pierwszym kwartale 2026 roku.
Znaczna część tej ekspansji byłaby związana z wykorzystaniem Claude do kodowania, automatyzacji i wspomaganego przez AI tworzenia oprogramowania.
I właśnie ten wzrost zmusza firmy AI do poszukiwania nowych źródeł mocy obliczeniowych daleko poza tradycyjnymi hiperskalerami.
Anthropic bowiem nie ogranicza się do umowy z Akamai: w ostatnich miesiącach nawiązało również partnerstwa z Google Cloud, Amazon Web Services, CoreWeave, a nawet z SpaceX Elona Muska.
Przekaz, który z tego wynika, jest zatem bardzo jasny: prawdziwa bitwa w sztucznej inteligencji nie dotyczy już tylko modeli językowych, ale dostępu do infrastruktur, które je umożliwiają.
Z drugiej strony, dla Akamai umowa z Anthropic również oznacza znacznie więcej niż zwykłe partnerstwo handlowe.
Historycznie firma była znana głównie z usług dostarczania treści i cyberbezpieczeństwa, ale eksplozja sztucznej inteligencji otwiera nowe strategiczne możliwości.
Dzięki swojej globalnej sieci składającej się z ponad 4 000 punktów obecności rozmieszczonych w ponad 130 krajach, Akamai dysponuje zdecentralizowaną infrastrukturą, która może dobrze dostosować się do potrzeb nowoczesnych obciążeń AI.
I to jest właśnie jeden z najbardziej interesujących aspektów tej operacji. W ostatnich latach rynek chmurowy był zdominowany głównie przez kilku scentralizowanych hiperskalerów, takich jak AWS, Google Cloud i Microsoft Azure.
Jednak sztuczna inteligencja znacznie zwiększa presję na dostępne zasoby i wiele firm poszukuje bardziej rozproszonych i elastycznych rozwiązań.
W tym kontekście Anthropic wydaje się rozumieć, że poleganie wyłącznie na głównych tradycyjnych dostawcach może nie być wystarczające w dłuższej perspektywie.
Nic dziwnego, że inwestorzy zareagowali entuzjastycznie na tę wiadomość.
Po ogłoszeniu akcje Akamai wzrosły o około 28%, co jest wyraźnym sygnałem, jak bardzo rynek postrzega sztuczną inteligencję jako szansę na radykalną transformację dla wielu firm technologicznych.
Według szacunków analityków kontrakt mógłby ostatecznie stanowić około 6% rocznych przychodów Akamai po pełnym uruchomieniu, przy czym pierwsze skutki ekonomiczne spodziewane są do końca 2026 roku.
Ta ewolucja pokazuje również, jak sektor AI przekształca technologiczny łańcuch wartości. Korzyści odnoszą nie tylko firmy rozwijające modele językowe, ale także wszyscy gracze zdolni do zapewnienia infrastruktury, energii, centrów danych i łączności.
Problem polega jednak na tym, że ten „wyścig" staje się coraz droższy. Trenowanie i utrzymywanie zaawansowanych modeli AI wymaga ciągłych wielomiliardowych inwestycji, co sprawia, że sektor jest coraz bardziej skoncentrowany w rękach nielicznych dużych firm mających dostęp do ogromnego kapitału.
Umowa między Anthropic a Akamai ujawnia rzeczywistość, która jest często niedoceniana w publicznej debacie na temat sztucznej inteligencji: główne ograniczenie nowoczesnej AI nie jest już tylko algorytmiczne, ale infrastrukturalne.
W ostatnich latach sektor skupiał się głównie na konkurencji między chatbotami, modelami językowymi i zaawansowanymi funkcjami.
Dziś jednak pojawia się drugi problem, mniej widoczny, ale być może jeszcze ważniejszy: dostęp do mocy obliczeniowych. Firmy AI zużywają bowiem ogromne ilości energii, GPU i przepustowości danych.
Każde nowe pokolenie modeli wymaga więcej zasobów niż poprzednie, tworząc spiralę inwestycyjną, która ryzykuje coraz bardziej faworyzować tylko grupy dysponujące większymi zasobami finansowymi.
Anthropic nie jest jedyną firmą w tej sytuacji. OpenAI, Google i Meta również inwestują miliardy, aby zabezpieczyć chipy, centra danych i infrastruktury chmurowe wystarczające do obsługi wzrostu generatywnej AI.
Ten scenariusz rodzi również krytyczne pytania o przyszłość sektora. Jeśli sztuczna inteligencja będzie coraz bardziej zależna od gigantycznych inwestycji infrastrukturalnych, istnieje ryzyko, że rynek stanie się stopniowo mniej otwarty i bardziej scentralizowany.
Co więcej, presja na zasoby obliczeniowe może mieć również wpływ na koszty energii i zrównoważenie środowiskowe.
Ekspansja AI wymaga bowiem ogromnych ilości energii elektrycznej i zaawansowanych systemów chłodzenia, co sprawia, że centra danych stają się coraz ważniejszymi aktywami strategicznymi.


