N(AI)jaśniejsza przyszłość dla UE? Jak kształtować strategię UE w erze ogólnej sztucznej inteligencji

1
26.02.2026
  • W 2025 r. Unia Europejska przyjęła strategię rozwoju AI (AI Continent Action Plan, InvestAI), która mimo retoryki akcentującej „europejskie wartości” w znacznej mierze powiela model amerykański, skoncentrowany na budowie infrastruktury obliczeniowej i dążeniu do rozwoju ogólnej sztucznej inteligencji (AGI). AGI mają charakteryzować zdolność do wykonywania różnorodnych zadań w świecie rzeczywistym oraz efektywność i skuteczność porównywalna do ludzkiej inteligencji.
  • Przykład Stanów Zjednoczonych pokazuje, że na kształt rozwijanej technologii wpływają przede wszystkim nakłady inwestycyjne, które w UE są na niskim poziomie. W okresie od 2013 r. do 2023 r. amerykańskie firmy przyciągnęły ponad sześć razy więcej kapitału prywatnego niż przedsiębiorstwa w UE (ok. 76 mld dol. w UE wobec 486 mld dol. w USA).
  • Alternatywą dla UE jest przyjęcie strategii skoncentrowanej na zastosowaniach AI w konkretnych sektorach gospodarki i wyznaczenie mierzalnych wskaźników rezultatu w określonych horyzontach czasowych, a także budowa wyspecjalizowanych modeli AI opartych na zbiorach danych wysokiej jakości.

Ogólna sztuczna inteligencja

Ogólna sztuczna inteligencja (Artificial General Intelligence, AGI) to zaawansowana forma sztucznej inteligencji, istniejąca obecnie jedynie w teorii, wyróżniająca się zdolnością do wykonywania różnorodnych zadań w świecie rzeczywistym, przy czym efektywność i skuteczność tych działań ma być porównywalna do wytworów ludzkiej inteligencji. Te cechy miałyby odróżniać ją od istniejących już teraz modeli AI, które mimo rosnącej wszechstronności wciąż opierają się na wzorcach wyuczonych z danych treningowych i nie posiadają zdolności do samodzielnego rozumowania, uczenia się z pojedynczych doświadczeń czy elastycznego adaptowania się do zupełnie nowych, nieprzewidzianych sytuacji w sposób porównywalny z ludzkim intelektem. W branży AI pojawiają się poglądy, jakoby większa liczba danych, na których trenowane są istniejące modele sztucznej inteligencji, miała doprowadzić do przełomu w zdolnościach AI i tym samym do powstania AGI.

Nie jest jednak pewne, czy metoda ta jest właściwa oraz czy osiągnięcie AGI jest w ogóle możliwe. Badanie z 2025 r., przeprowadzone przez Association for the Advancement of Artificial Intelligence (AAAI) wśród 475 naukowców zajmujących się AI, wykazało, że zdaniem większości respondentów (76%) „skalowanie obecnych podejść do AI” w celu osiągnięcia AGI jest „mało prawdopodobne” lub „bardzo mało prawdopodobne”. Skalowanie (ang. scaling) opiera się na założeniu, że ciągłe powiększanie modeli i zasobów danych automatycznie prowadzi do poprawy ich możliwości. Tymczasem samo zwiększenie wolumenu danych, na których trenuje się modele językowe, nie prowadzi do proporcjonalnego wzrostu zdolności sztucznej inteligencji. Nie rozwiązuje też fundamentalnych problemów AI, takich jak „halucynacje” (tj. zjawisko, w którym modele sztucznej inteligencji generują fałszywe lub wprowadzające w błąd informacje, które są przedstawiane jako fakty), błędy logiczne czy niezdolność do działań podobnych do rzeczywistego rozumowania. Co więcej, intensywne wykorzystywanie danych niskiej jakości – często bez weryfikacji ich pochodzenia czy wiarygodności – rodzi ryzyko utrwalania i dalszego powielania błędów i dezinformacji w modelach. Obecne paradygmaty uczenia maszynowego nie są wystarczające do osiągnięcia ogólnej sztucznej inteligencji.

Mimo tych wątpliwości w strategiach przyjętych przez USA i UE widoczne jest dążenie do rozwijania już istniejących metod trenowania sztucznej inteligencji, czyli zwiększania ilości danych treningowych oraz zapewniania większej mocy obliczeniowej (między innymi dzięki budowie nowych centrów danych oraz fabryk AI). Samo jednak skalowanie, choć poprawia wydajność modeli AI, niekoniecznie prowadzi do rezultatów przypominających rozumienie. Nie musi też doprowadzić do przełomu technologicznego.

Podejście USA do rozwoju i regulacji AI

Intensywne działania na rzecz rozwoju AI prowadziła już administracja prezydenta Joe Bidena. Ze środków publicznych zainwestowała ponad 50 mld dol. w krajową produkcję półprzewodników niezbędnych do konstrukcji systemów służących trenowaniu modeli sztucznej inteligencji, a także ograniczyła eksport zaawansowanych chipów do państw uznanych za szczególnie wrogie lub konkurencyjne w tej gałęzi przemysłu (m.in. do Chin, Rosji czy Wenezueli). W polityce Bidena wizja przyszłości AI zakładała jednocześnie jej tzw. etyczny rozwój. Kluczowe w tym zakresie było rozporządzenie wykonawcze 14110, które wprowadzało między innymi wymóg oznaczania treści generowanych przez AI, aby użytkownicy wiedzieli, kiedy mają do czynienia z materiałem stworzonym przez sztuczną inteligencję. Rozporządzenie wprowadzało także ochronę konsumentów i ich prywatności przed potencjalnymi szkodami wynikającymi z wykorzystania sztucznej inteligencji oraz zabezpieczenia dla pracowników i pracowniczek.

Ponowne objęcie urzędu prezydenta USA przez Donalda Trumpa przyniosło wyraźny zwrot w amerykańskiej polityce wobec AI. Obecna administracja traktuje rozwój sztucznej inteligencji jako wyścig – ten, kto pierwszy rozwinie modele AI do poziomu AGI, zyska trwałą globalną przewagę polityczną i gospodarczą.

Administracja Trumpa postrzega zbyt daleko idące regulacje w zakresie AI jako zagrożenie dla innowacji, dlatego zniosła część rozwiązań, w tym wprowadzone przez poprzednią administrację rozporządzenie 14110, którego celem było zapewnienie bezpiecznego rozwoju technologii. Stało się to jednym z głównych napięć w relacjach z UE, która posiada własne regulacje w dziedzinie AI. USA domagają się, by UE nie egzekwowała swoich regulacji wobec amerykańskich korporacji. Kulminacją amerykańskich działań było przyjęcie w lipcu 2025 r. strategii America’s AI Action Plan. Opiera się on na trzech filarach: przyspieszenie innowacji poprzez zniesienie regulacji, budowa infrastruktury oraz dyplomacja technologiczna, czyli program eksportu pełnych pakietów AI do sojuszników. Dokument zakłada ekstensywną budowę centrów danych oraz fabryk AI, a także całego systemu infrastruktury wspierającej (systemów chłodzenia centrów danych, zaplecza energetycznego, produkcji chipów). Aby przyspieszyć realizację tych inwestycji, zniesiono liczne bariery administracyjne, w tym środowiskowe. W praktyce oznacza to możliwość lokowania centrów danych również na terenach, które wcześniej podlegały ochronie ze względu na ich cenne walory naturalne.

USA dążą także do utrzymania pozycji kluczowego eksportera rozwiązań AI poprzez oferowanie nie samych chipów, ale całych pakietów infrastrukturalnych, co ma uniemożliwić nabywcom budowę własnych, niezależnych systemów. Eksport ma być kontrolowany dzięki konieczności prowadzenia indywidualnych negocjacji, w których dostęp do AI uzależniony byłby od ustępstw regulacyjnych. Taka praktyka uderzy w unijne próby regulowania AI, ponieważ może skłaniać państwa członkowskie do preferowania dwustronnych negocjacji ze Stanami Zjednoczonymi.

Podejście to koncentruje się na ekstensywnym zwiększaniu mocy obliczeniowej – więcej centrów danych, więcej chipów AI, większe zbiory danych, co wynika z założenia, że sama skala zapewni przełom technologiczny. Dlatego też amerykańska strategia skupia się w dużej mierze na rozwoju modeli generatywnej sztucznej inteligencji.

Podejście UE do rozwoju i regulacji AI

Również UE już wcześniej dostrzegała znaczenie sztucznej inteligencji dla wzrostu gospodarczego i konkurencyjności swojej gospodarki na tle gospodarek USA czy Chin. W 2018 r. Komisja Europejska opublikowała Coordinated Plan on Artificial Intelligence, a następnie, w 2021 r., jego zrewidowaną wersję. Plan zakładał między innymi stworzenie bądź aktualizację krajowych strategii w zakresie AI, a także efektywne wykorzystanie przez państwa członkowskie finansowania ze środków UE, w szczególności Recovery and Resilience Facility (RRF). Miało to służyć wdrażaniu AI.

Wykres 1. Przegląd krajowych strategii w zakresie AI

Źródło: OECD, 2025

RRF, kluczowy element unijnego instrumentu odbudowy NextGenerationEU, którego wartość wyniosła 806,9 mld euro, odegrał przełomową rolę w przyspieszeniu rozwoju sztucznej inteligencji we wszystkich 27 państwach członkowskich UE. Dzięki obowiązkowi przeznaczenia 20% środków na cyfryzację (ok. 134 mld euro), RRF zapewnił bezprecedensowe finansowanie inwestycji związanych z AI, choć podejścia poszczególnych państw znacznie się różnią. Finansowanie to podwoiło środki przeznaczone na rozwój AI w UE w porównaniu do lat poprzednich.

W 2024 r. UE przyjęła Akt o sztucznej inteligencji (AI Act), którego jednym z podstawowych celów jest stworzenie warunków do rozwoju etycznej AI. Akt klasyfikuje modele AI według poziomu ryzyka dla ludzi i społeczeństwa – od rozwiązań o znikomym ryzyku (np. filtry spamu) poprzez ryzyko ograniczone i wysokie (np. systemy używane w rekrutacji), aż po ryzyko nieakceptowalne (np. social scoring, czyli system oceny obywateli).

Wraz z przyspieszeniem rozwoju AI UE zaczęła wiązać rozwój sztucznej inteligencji z możliwością wzrostu konkurencyjności unijnej gospodarki. Wynikało to wprost m.in. z opublikowanego w 2024 r. raportu Mario Draghiego, który stał się jednym z punktów odniesienia dla polityki gospodarczej KE w kadencji 2024–2029. Raport wskazywał na relatywnie niskie zaangażowanie gospodarki UE w rozwój i wdrażanie nowych technologii, w tym sztucznej inteligencji, co może prowadzić do osłabienia konkurencyjności unijnego przemysłu. Dlatego rekomendował szersze wykorzystanie AI w sektorach strategicznych.

Przedstawiony przez UE w kwietniu 2025 r. Plan działań dla kontynentu AI powstał w kontekście zmieniającej się polityki USA i w praktyce stanowi odpowiedź na zwrot dokonany przez administrację Trumpa. Pod względem priorytetów jest on zbliżony do strategii amerykańskiej. Również zakłada powstanie wielkoskalowej infrastruktury AI, w tym tzw. fabryk i gigafabryk AI. Konkretne plany dotyczące ich budowy znalazły się w Apply AI Strategy, która stanowi uzupełnienie Planu. W jej ramach określono 10 sektorów, w których należy przyspieszyć wdrażanie sztucznej inteligencji: zdrowie, transport i motoryzację, robotykę, produkcję, inżynierię i budownictwo, klimat i środowisko, w tym energię, sektor rolno-spożywczy, obronność, łączność elektroniczną oraz sektor mediów. UE planuje także zwiększyć dostępne moce obliczeniowe poprzez rozwój europejskiej chmury. Celem tych działań ma być ograniczenie zależności zarówno od technologii chińskich, jak i amerykańskich. Unia stawia na autonomię technologiczną i własne moce produkcyjne w zakresie infrastruktury AI. Może to pozytywnie wzmocnić europejski rynek i potencjał sektora prywatnego, co ułatwi rozwój takim firmom, jak francuski Mistral AI czy polski Bielik AI.

Zbliżenie na Polskę

Polska również podejmuje kroki w kierunku budowy własnych zdolności w zakresie sztucznej inteligencji. Model językowy Bielik, rozwijany przez środowisko skupione wokół Fundacji SpeakLeash, jest jednym z najbardziej rozpoznawalnych polskich projektów AI – dużym modelem językowym zoptymalizowanym pod kątem języka polskiego. W lutym 2025 r. Ministerstwo Cyfryzacji udostępniło z kolei PLLuM (Polish Large Language Model) – rodzinę polskich modeli językowych stworzonych przez konsorcjum sześciu instytucji naukowych, m.in. Politechnikę Wrocławską, NASK i Uniwersytet Łódzki. PLLuM, trenowany na polskich danych organicznych, jest dostosowany do specyfiki języka polskiego i terminologii administracji publicznej, a jego planowane zastosowania obejmują m.in. funkcję wirtualnego asystenta w aplikacji mObywatel. W lutym 2025 r. rząd przyjął również zaktualizowaną Politykę rozwoju AI w Polsce na lata 2025–2030, wyznaczającą kierunki działań państwa w tym obszarze. Polska aspiruje także do przyciągania inwestycji w infrastrukturę obliczeniową, które mogłyby wspierać rozwój rodzimych rozwiązań AI.

UE w dalszym ciągu podkreśla znaczenie rozwoju etycznych modeli sztucznej inteligencji. Jednocześnie, mimo prób utrzymania swojej wizji rozwoju AI (np. poprzez dalsze wdrażanie Aktu o AI) UE częściowo przejmuje amerykańską narrację, zgodnie z którą regulacje mają rzekomo stanowić zagrożenie dla innowacyjności, i w odpowiedzi zmienia swoje podejście do rozwoju AI. Co więcej, założenie ekstensywnej budowy fabryk AI sprawia wrażenie powielania amerykańskiego podejścia, w którym za strategicznie kluczowe uznaje się modele generatywne, czyli takie, które na podstawie danych tworzą coś stosunkowo nowego – obrazy czy teksty (np. ChatGPT). Są to ogólne modele trenowane na bardzo dużych zbiorach danych.

Finansowanie AI w USA i UE

Fundamentalna różnica między europejskim a amerykańskim modelem finansowania AI polega na proporcjach między zainwestowanymi środkami publicznymi a prywatnymi. W okresie od 2013 r. do 2023 r. amerykańskie firmy przyciągnęły ponad sześć razy więcej kapitału prywatnego niż przedsiębiorstwa z tej branży w Unii Europejskiej (ok. 76 miliardów dol. w UE versus 486 mld dol. w USA), co stworzyło wyjątkowo dogodne środowisko dla rozwoju innowacji w dziedzinie AI. W USA dominuje bowiem kapitał prywatny napędzany przez fundusze venture capital i gigantów technologicznych, podczas gdy w UE podstawową rolę pełnią środki publiczne. W ramach programu Horizon Europe w latach 2021–2024 Unia przeznaczyła na rozwój AI 6,4 mld euro. Europejska Rada ds. Innowacji (EIC), dysponująca w 2024 r. budżetem na rozwój nowych technologii przekraczającym 1,2 mld euro, zainwestowała w projekty związane ze sztuczną inteligencją zaledwie 150 mln euro (łącznie ponad 400 mln euro w latach 2021–2024). Co istotne, niektóre państwa członkowskie, takie jak Grecja, Cypr, Słowenia i Polska, są w znacznym stopniu uzależnione od funduszy unijnych w finansowaniu inwestycji w AI, co pogłębia nierówności wewnątrz UE. Wynika to właśnie z niewielkich samodzielnych nakładów tych państw na rozwój AI, a także niskiego poziomu prywatnych inwestycji.

Według Stanford AI Index Report prywatne inwestycje w AI w USA osiągnęły w 2024 r. wartość 109,1 mld dolarów, czyli prawie 12 razy więcej niż w Chinach (9,3 mld dolarów) i 24 razy więcej niż w Wielkiej Brytanii (4,5 mld dolarów). Dane Pitchbook Data również pokazują te różnice – łączne finansowanie AI miałoby wynosić 97 mld dol. w USA w stosunku do 13,5 mld w Europie i 13,7 mld w Azji. Różnica jest widoczna również w przypadku generatywnej AI, gdzie prywatne inwestycje amerykańskie przewyższyły o 25,4 mld dolarów łączną sumę zainwestowaną w Chinach, Unii Europejskiej i Wielkiej Brytanii. Warto jednak zauważyć, że kwoty inwestycji chińskich oraz europejskich (UE oraz Wielkiej Brytanii) są do siebie zbliżone.

W 2025 r. UE rozpoczęła projekt InvestAI, która zakłada mobilizację 200 mld euro w ciągu pięciu lat, w tym 50 mld ze środków publicznych i 150 mld z sektora prywatnego. Kluczowym elementem planu jest budowa czterech gigafabryk AI za 20 mld euro, z których każda ma dysponować mocą obliczeniową równą około 100 tys. zaawansowanych chipów AI, czyli taką, do której obecnie dążą największe firmy AI, jak Open AI czy Anthropic. Jednocześnie w USA administracja Trumpa zainicjowała projekt Stargate, który zakłada natychmiastowe wdrożenie 100 mld dolarów z perspektywą zwiększenia do 500 mld w ciągu czterech lat (środki w większości zainwestowane przez firmy OpenAI, Oracle, Softbank oraz MGX).

Wykres 2. Finansowanie AI w USA i w UE oraz Wielkiej Brytanii

Źródło: Our World in Data, 2024

Większość prywatnych inwestycji w AI na całym świecie nie skupia się jednak na konkretnych zastosowaniach tej technologii w poszczególnych branżach, np. w medycynie, edukacji czy wojskowości. Środki te w zdecydowanej większości inwestowane są w infrastrukturę potrzebną do trenowania zaawansowanych modeli sztucznej inteligencji (w szczególności generatywnej), a także – na drugim miejscu – w przetwarzanie danych. Ma to na celu ciągłe zwiększanie ilości danych treningowych oraz mocy obliczeniowej.

Wykres 3. Globalne prywatne inwestycje w AI według dziedziny/obszaru zastosowania

Źródło: Stanford AI Index Report, 2025

Europejskie fabryki AI

Europejskie fabryki AI, będące kluczowym elementem Planu działań dla kontynentu AI, mają w teorii wspierać rozwój AI w konkretnych sektorach gospodarki – w tym w opiece zdrowotnej, motoryzacji, energetyce, rolnictwie czy obronności. W praktyce jednak większość z nich przyjmuje podejście ogólne (trenowanie AI na dużych, ogólnych zbiorach danych, bez specjalizacji), co oddala je od pierwotnej wizji. Analiza trzynastu fabryk AI wykonana przez think tank Interface pokazuje, że dziewięć z nich koncentruje się na co najmniej pięciu różnych sektorach jednocześnie, rzadko uwzględniając przy tym mocne strony lokalnego ekosystemu przemysłowego. Tylko jedna fabryka – HammerHAI –skupia się wyłącznie na branżach odpowiadających profilowi regionu Stuttgartu, jakim jest przemysł motoryzacyjny. Pozostałe, zamiast angażować się w specjalizację zgodną z lokalnymi przewagami konkurencyjnymi, oferują de facto infrastrukturę obliczeniową ogólnego przeznaczenia. Co więcej, podczas gdy globalna infrastruktura obliczeniowa dla AI jest zdominowana przez sektor prywatny, w europejskich fabrykach AI przeważają podmioty akademickie i instytucje badawcze. Taka struktura stawia pod znakiem zapytania rzeczywistą zdolność tych fabryk do przełożenia badań na zastosowania komercyjne i wzmocnienie konkurencyjności europejskiego przemysłu.

Ryzyka i ograniczenia strategii opartej na centrach danych dla ogólnych modeli AI

Rozbudowa infrastruktury dla dużych modeli językowych wiąże się z istotnymi ryzykami. Pierwsze ryzyko wynika z energochłonności centrów danych. Jak podaje Międzynarodowa Agencja Energetyczna, pojedyncza duża fabryka AI konsumuje obecnie tyle energii elektrycznej, co 100 tys. gospodarstw domowych. W kilku stanach USA centra danych odpowiadają już dzisiaj za ponad 10% całkowitego zużycia energii elektrycznej, a w Irlandii nawet za 20%. Natomiast jedna gigafabryka AI, o której mówi unijna strategia rozwoju sztucznej inteligencji, mogłaby prawdopodobnie zużywać tyle energii elektrycznej co kilka milionów gospodarstw domowych. Rozwój centrów danych na potrzeby AI zwiększy więc zapotrzebowanie na energię elektryczną w UE i w USA. Tymczasem w UE w ciągu ostatniej dekady ceny energii elektrycznej dla przemysłu pozostawały średnio o 50% wyższe niż w USA (por. tabela 4). Wobec tego Unii Europejskiej może być trudno ekonomicznie konkurować z USA w masowym rozwoju AI i w zachęcaniu deweloperów centrów danych do ich lokalizowania na terenie Unii.

Wykres 4. Średnia cena energii elektrycznej dla przemysłu w UE i w USA

Źródło: Komisja Europejska, Study on energy prices and costs

Z uwagi na energochłonność centrów danych realizacja unijnej strategii AI może też pozostawać w konflikcie z celami klimatycznymi UE. Ograniczenie emisji gazów cieplarnianych wymaga elektryfikacji np. transportu i przemysłu, co do 2050 r. zwiększy o co najmniej kilkadziesiąt procent zapotrzebowanie unijnej gospodarki, w tym Polski, na energię elektryczną. Odnawialne źródła energii, które w sposób bezemisyjny mają zaspokoić ten popyt, dopiero się rozwijają. Wyzwanie stanowi sprostanie zapotrzebowaniu na energię samych tylko tradycyjnych sektorów gospodarki, a zgodnie z unijną strategią AI dołączy do nich kolejny duży konsument energii elektrycznej w postaci centrów danych. Nie wiadomo, czy rozwój bezemisyjnych źródeł nadąży za zwiększaniem łącznego popytu na energię, a Plan dla kontynentu AI nie odpowiada na to pytanie. Istnieje więc ryzyko, że realizując unijną strategię rozwoju sztucznej inteligencji, trzeba będzie sięgnąć po energię z paliw kopalnych, na przykład z gazu ziemnego, albo zdecydować się na szerokie inwestycje w energię atomową

Trwanie przy strategii rozwoju sztucznej inteligencji przewidzianej w Planie dla kontynentu AI może dodatkowo uzależnić UE od dostaw energii z USA (gazu LNG i ropy naftowej). W obliczu ewentualnego niedoboru energii, wywołanego masowym rozwojem energochłonnych centrów danych, i wobec braku własnych surowców energetycznych UE będzie musiała jeszcze w większym stopniu niż dotąd importować energię. W takiej sytuacji Unia zapewne zwróci się ku mniej emisyjnemu gazowi ziemnemu. Czołowym eksporterem gazu do UE pozostają USA (w 2024 r. odpowiadały za 16,5% dostaw), a prezydent Donald Trump wymógł jeszcze większy import amerykańskiego gazu przez kraje UE w zamian za stosowanie łagodniejszej polityki celnej wobec Unii. Podążanie wytyczoną przez USA ścieżką rozwoju sztucznej inteligencji w dłuższej perspektywie może więc stanowić realizację interesów USA, a jednocześnie zagrożenie dla osiągnięcia celu autonomii strategicznej.

Istotnym ryzykiem są też dostawy kluczowych komponentów do budowy infrastruktury AI. Model rozwoju AI poprzez skalowanie wolumenu danych polega w znacznym stopniu na zaawansowanych chipach, których produkcja niemal w całości jest zlokalizowana poza UE. Tajwan, za pośrednictwem firmy TSMC, kontroluje większość światowej produkcji najbardziej zaawansowanych półprzewodników, niezbędnych w konstruowaniu infrastruktury do trenowania i uruchamiania dużych modeli AI. Strategia rozwoju kluczowej technologii, polegająca na imporcie zasadniczych komponentów z tak wrażliwego politycznie obszaru (znajdującego się w strefie potencjalnego konfliktu z Chinami), stanowi zagrożenie dla europejskiej autonomii technologicznej. Choć UE podjęła próby zmniejszenia tej zależności, przyjmując Europejski akt o chipach (European Chips Act), który przewiduje inwestycje rzędu 43 mld euro w krajową produkcję półprzewodników, efekty tych działań będą widoczne dopiero za kilka lat. Tymczasem realizacja unijnej strategii AI opiera się na założeniu nieprzerwanego dostępu do chipów produkowanych poza UE, co czyni całą inicjatywę podatną na zakłócenia w globalnych łańcuchach dostaw, ograniczenia eksportowe czy zmiany w polityce handlowej kluczowych producentów.

Wykres 5. Najwięksi producenci półprzewodników według przychodów

Źródło: Trendforce, 2024

Wnioski i rekomendacje

Podczas gdy UE przyjęła kompleksowy AI Act, nakładający na deweloperów i dostawców systemów AI szereg wymogów dotyczących bezpieczeństwa, transparentności i poszanowania praw podstawowych, USA świadomie odrzuciły ścieżkę regulacyjną i postawiły na minimalizację ograniczeń dla innowacji. Ta regulacyjna asymetria rodzi poważne konsekwencje dla europejskiego rynku AI. Amerykańskie korporacje technologiczne, operujące w środowisku o znacznie niższych wymogach zgodności z regulacjami, mogą szybciej i taniej rozwijać swoje produkty, a następnie oferować je na rynku europejskim, gdzie lokalne firmy muszą sprostać znacznie bardziej rygorystycznym standardom. Co więcej, administracja USA wywiera bezpośrednią presję na UE, by ta złagodziła lub nie egzekwowała przepisów AI Act wobec amerykańskich dostawców. Taka sytuacja stawia unijnych regulatorów przed dylematem – utrzymanie wysokich standardów może spowolnić wdrożenie AI w Europie i zniechęcić inwestorów, podczas gdy ich łagodzenie podważa fundamentalny cel regulacji, czyli ochronę obywateli i budowę zaufania do technologii.

Strategia rozwoju sztucznej inteligencji w UE kształtowana jest w coraz większym stopniu przez uwarunkowania zewnętrzne, które ograniczają swobodę wyboru własnej ścieżki technologicznej. Administracja USA otwarcie wywiera presję na sojuszników, by zmniejszyli współpracę technologiczną z Chinami, akceptowali rozwiązania amerykańskich dostawców chmurowych oraz dostosowali swoje regulacje do interesów firm z Doliny Krzemowej. Groźby ceł ze strony USA i otwarte wiązanie kwestii bezpieczeństwa energetycznego z decyzjami w polityce technologicznej stawiają Unię w znacznie słabszej pozycji negocjacyjnej, niż wynikałoby to z jej potencjału gospodarczego. Równocześnie Chiny intensyfikują wysiłki, by przyciągnąć europejskich naukowców i przedsiębiorców ofertą nieograniczonego dostępu do danych oraz kapitału państwowego. W tej rywalizacji Unia Europejska w niewielkim stopniu jest w stanie wyznaczać i realizować własne standardy, zaś Plan dla kontynentu AI nie proponuje narzędzi pozwalających skutecznie przeciwstawić się tej dynamice, a sztuczną inteligencję traktuje nie jako narzędzie do osiągania konkretnych celów, a w większym stopniu jako cel sam w sobie.

Wobec powyższych wyzwań warto rozważyć następujące działania:

  • Związanie strategii rozwoju AI z suwerennością energetyczną. Zaawansowane centra danych są wysoce energochłonne. Obecnie pojedyncza duża fabryka AI konsumuje tyle energii elektrycznej, co 100 tys. gospodarstw domowych, w przypadku gigafabryk zużycie energii może odpowiadać kilku milionom gospodarstw domowych. Suwerenność energetyczna jest więc podstawowym warunkiem dla cyfrowej suwerenności. Unia Europejska powinna zatem stworzyć konkretny plan uwzględniający nie tylko samą budowę fabryk AI (zadając jednocześnie pytanie, ile i po co budować), ale i sposób zapewnienia im odpowiednich zasobów energetycznych. Z tego względu UE powinna rozważyć szerokie inwestycje w energię atomową.
  • Przeorientowanie strategii AI z infrastruktury ogólnego przeznaczenia na zastosowania sektorowe. Unia Europejska powinna odejść od powielania amerykańskiego modelu rozwoju AI, opartego na ekstensywnym skalowaniu infrastruktury obliczeniowej, na rzecz koncentracji na wyspecjalizowanych systemach AI w sektorach o wysokim wpływie na produktywność. Tworzenie kolejnych modeli generatywnej sztucznej inteligencji nie powinno być podstawowym celem UE. Konkurencyjność względem Chin czy USA pozwoli zachować stworzenie wyspecjalizowanych modeli. Co więcej, horyzont czasowy budowy planowanej infrastruktury rodzi pytanie o jej adekwatność do przyszłych potrzeb technologicznych – nie jest przesądzone, że za kilka lat generatywna AI w obecnym kształcie będzie stanowić główną oś przewagi konkurencyjnej. Efektywna polityka AI powinna więc koncentrować się na konkretnych celach i wizji rozwoju – tylko na podstawie jasnej wizji strategicznej można odpowiednio rozdysponowywać nakłady inwestycyjne tak, by w konkretnych okresach (5, 10, 15 lat) przynosiły one oczekiwane skutki. W ramach Apply AI Strategy określono 10 sektorów, w których należy przyspieszyć wdrażanie sztucznej inteligencji. Należałoby jednak wybrać także kilka sektorów, np. ochrona zdrowia, przemysł, administracja publiczna, energetyka, obronność, logistyka, dla których tworzono by specjalistyczne modele i rozwiązania AI. Tym samym co najmniej 30% środków InvestAI (około 60 mld euro) powinno zostać alokowane właśnie na rozwiązania sektorowe.
  • Inwestycja w komputery kwantowe. Zamiast powielać amerykański model ekstensywnej budowy infrastruktury obliczeniowej UE mogłaby rozważyć strategię „przeskoku technologicznego” – analogicznie do ominięcia przez kraje rozwijające się etapu bankowości tradycyjnej i przejścia bezpośrednio do fintechów. W kontekście AI takim przeskokiem mogłoby być inwestowanie w komputery kwantowe, które w perspektywie dekady mogą uczynić obecne centra danych przestarzałymi. Państwa członkowskie dysponujące zaawansowanymi programami kwantowymi – Niemcy, Francja, Holandia i Finlandia – powinny koordynować rozwój tej technologii, aby uniknąć dublowania inwestycji i osiągnąć efekt skali w negocjacjach z dostawcami (IQM, Pasqal, IBM).
  • Budowanie przewagi konkurencyjnej poprzez zwiększanie jakości danych. Europejskie centra danych są konieczne, ale powinny być nie tylko zaawansowane technologicznie, lecz także operować na wysokiej jakości danych, których zbiory oparte będą na podwójnej weryfikacji. Dzięki temu europejskie systemy AI będą mogły wyróżniać się jakością na tle systemów amerykańskich. Ich wartość strategiczna zależy od jakości przetwarzanych danych, nie zaś wyłącznie od mocy obliczeniowej. UE powinna więc budować przewagę konkurencyjną poprzez rygorystyczne praktyki zapewniania jakości zbiorów danych treningowych. Równolegle UE powinna skoncentrować się na budowie przewagi w obszarze mikromodeli AI – wyspecjalizowanych, energooszczędnych systemów dostosowanych do konkretnych zastosowań sektorowych. Kluczowym atutem UE pozostaje jakość danych i kapitał ludzki, które pozwalają na tworzenie precyzyjnych modeli. Budowanie przewagi konkurencyjnej poprzez rygorystyczną weryfikację zbiorów danych wysokiej jakości może okazać się strategią bardziej zrównoważoną niż wyścig o „surową” moc obliczeniową. Będzie to zadanie dla Europejskiego Urzędu ds. Sztucznej Inteligencji, który powinien stworzyć proces podwójnej weryfikacji zbiorów danych dla AI.
  • Specjalizacja fabryk AI. Europejskie fabryki AI, będące kluczowym elementem Planu działań dla kontynentu AI, w praktyce odbiegają od pierwotnej wizji wspierania rozwoju AI w konkretnych sektorach gospodarki. Komisja Europejska (DG CNECT) wraz z EuroHPC (The European High Performance Computing Joint Undertaking) powinny wymóc, by fabryki budowane w ramach InvestAI spełniały wymóg specjalizacji sektorowej powiązanej. Dzięki temu modele AI trenowane w europejskich fabrykach opierałyby się nie tylko na wysokiej jakości danych, ale byłyby również wyspecjalizowane – UE nie musiałaby więc tworzyć kolejnych modeli generatywnej sztucznej inteligencji, ale wyspecjalizowane rozwiązania AI, i w  ten sposób budować swoją konkurencyjność. Istotne jest też, by UE najpierw decydowała o przeznaczeniu kolejnych fabryk wymagających dużych nakładów tak finansowych, jak i energetycznych. Sama budowa fabryk nie powinna być celem samym w sobie.
  • Zapewnienie suwerenności danych. Ostatnie zeznania przedstawicieli Microsoftu przed komisją śledczą francuskiego Senatu pokazały, że firmy technologiczne nie mogą zagwarantować, że dane obywateli UE nigdy nie zostaną przekazane władzom Stanów Zjednoczonych bez wyraźnej zgody krajów UE. To samo dotyczy systemów generatywnej sztucznej inteligencji i danych, które do niej trafiają. Z tego względu konieczne jest wprowadzenie wymogów przechowywania wrażliwych danych wyłącznie w ramach europejskiej jurysdykcji. Jest to kluczowe zadanie dla Europejskiej Rady Ochrony Danych, która powinna zaktualizować swoje wytyczne dotyczące wymogów lokalizacji danych dla systemów AI przetwarzających wrażliwe dane (publiczne i prywatne).
  • Mobilizacja europejskiego sektora prywatnego. Analiza nakładów finansowych na rozwój sztucznej inteligencji pokazuje, że kluczowy w tym zakresie jest kapitał prywatny oraz partnerstwa publiczno-prywatne. Działania UE, a także publiczne programy inwestycyjne, powinny się więc koncentrować na mobilizacji kapitału prywatnego. Dzieje się tak w przypadku budowy gigafabryk AI – Komisja Europejska zakłada, że część kwoty przeznaczonej na budowę gigafabryk powinna być zapewniona przez sektor prywatny.
  • Polska jako lider regionalnej strategii AI w Europie Środkowo-Wschodniej. Region Europy Środkowo-Wschodniej dysponuje znaczącym potencjałem w postaci wysokiej liczby specjalistów ICT (technologii informacyjno-komunikacyjnych), lecz boryka się z niedostatecznym finansowaniem rozwoju sztucznej inteligencji. Polska, największa gospodarka regionu, powinna zainicjować wspólną strategię AI dla państw sąsiednich, koncentrującą się na wyspecjalizowanych rozwiązaniach sektorowych w obszarach energetyki, cyberbezpieczeństwa, produkcji przemysłowej, ochrony zdrowia oraz administracji publicznej. Taka koordynacja pozwoliłaby na uniknięcie dublowania inwestycji oraz skuteczniejsze konkurowanie o środki z programu InvestAI.
  • Polska powinna inwestować w rodzime wyspecjalizowane modele AI, np. skupione na wspomaganiu administracji publicznej. Istniejące już modele AI, takie jak Bielik AI czy PLlum, dają podstawy do systematycznego budowania wysokiej jakości zweryfikowanych zbiorów danych w języku polskim. W ten sposób Polska może zbudować trwałą przewagę, czym wzmocni swoją pozycję również dzięki temu, że według badań język polski jest jednym z najbardziej precyzyjnych pod względem wydawania poleceń AI.
  • W Polsce budowana będzie gigafabryka AI. Istotne jest, by odznaczała się wyraźną specjalizacją sektorową, odpowiadającą priorytetom regionu – w szczególności w obszarze cyberbezpieczeństwa, w którym państwa Europy Środkowo-Wschodniej mają zarówno pilne potrzeby, jak i rosnące kompetencje.