Zdaniem Szczęśniaka: AI i zapotrzebowanie na energię
Kiedyś ktoś określił komputer jako „rower dla mózgu”, tak teraz można powiedzieć, że sztuczna inteligencja (AI) to druga generacja tegoż roweru.

To coraz bardziej popularny elektryk, taki E-bajk z doładowaniem. Obniżającym bariery wejścia, więc poszerzającym bazę użytkowników dzięki łatwości obsługi… Cóż bowiem łatwiejszego niż przycisnąć guziczek w telefonie i zapytać: „Google, jak się gotuje ziemniaki?” I da się wg tej odpowiedzi je ugotować, zapewniam :) A poważnie, to powszechnie (darmowo na razie) dostępne narzędzia AI skracają o rząd wielkości czas poszukiwania informacji. Choć z ich rozumieniem i analizowaniem AI sobie jeszcze bardzo, ale to bardzo słabo radzi.
Ale nie tylko takie zastosowania ma sztuczna inteligencja. Jest startującym motorem współczesnej gospodarki, który otwiera przed ludzkością niebywałe perspektywy. Ale do tego potrzebuje energii. W pierwszym tekście o AI pisałem o „fantastycznych prognozach” zapotrzebowania. No, ale jak to w mediach – robi się z igły widły.
Podaje się jakieś dzisiejsze dane, najlepiej w procentach (wartościach względnych) i straszy ich zwielokrotnieniem oraz mającym po tym nastąpić Armagedonem. I podlewa klimatycznym sosem, ile to emisji CO2 czy zużycia wody z tego będzie. Bo jak wiadomo, według oficjalnej wersji rzeczywistości – „planeta płonie”. Ale… spokojnie! Przypomnijmy, że wcześniej straszono nas, ile to komputery będą zżerały energii (tytuł w Forbes z 1999 roku: „Kopcie więcej węgla, PeCety nadchodzą!”). Ale postęp technologiczny (nowe sposoby obróbki danych) ogromnie obniżył zapotrzebowanie na energię.
Najpierw więc w skali makro przyjrzyjmy się, jak od strony zapotrzebowania na energię wygląda cykl rozwoju nowej gałęzi IT, a jednocześnie postęp w oszczędzaniu energii. Dobrze ilustruje to przypadek Stanów Zjednoczonych. To przecież globalny lider tak centrów danych, jak i sztucznej inteligencji. No i państwo dysponujące świetnymi statystykami.
Centra danych w latach 2000 – 2005 podwoiły swoje potrzeby energetyczne. To była szybko rosnąca branża, 20 lat temu zużywająca 61 TWh energii, co wtedy stanowiło 1,5 procenta całkowitego zużycia elektryczności w USA.
Jednak później weszła ona w erę stabilizacji zużycia, jednocześnie gwałtownie zwiększając ilość przetwarzanych danych. To przede wszystkim dzięki oszczędniejszym energetycznie modelowi biznesowemu. Odchodzono od centrów danych w przedsiębiorstwach i instytucjach, przenosząc się do centrów kolokacji danych, a także do usług w chmurze. Same centra danych, dzięki większej skali działalności, mogły sprawniej racjonalizować wydatki energetyczne, przede wszystkim oszczędności w chłodzeniu serwerów, zarządzaniu energią. Zwiększono też stopień wykorzystania serwerów, na przykład optymalizując czas, gdy były nie wykorzystywane. Poza tym same serwery zwiększały swoje moce przerobu danych, nie zwiększając zużycia energii, dzięki postępowi w technikach obliczeniowych.
To był okres optymalizacji. Ale po 2017 roku powrócił etap gwałtownego rozwoju. Prace nad sztuczną inteligencją i wprowadzenie zwiększających możliwości obliczeniowe procesorów graficznych (GPU) w miejsce CPU (centralnej jednostki przetwarzającej) zwiększyło potrzeby energetyczne. Przez te lata zużycie energii w centrach danych potroiło się (z poziomu 60 do 183 TWh w 2024 r.). A ich udział (i sztucznej inteligencji, która w nich działa) zwiększył się z 1,9% do 4,4% bilansu elektroenergetycznego. Dla porównania, dzisiaj centra danych w USA, zużywają znacznie więcej energii niż potrzebuje cała Polska (zużycie odbiorców końcowych w 2024 r. to 146 TWh).
Nie wiemy, jak długo będzie trwała ta druga faza wzrostu potrzeb energetycznych, wywołana rozwojem technologii. Wyścig do bardziej inteligentnych modeli jeszcze się nie skończył. Dlatego wzrost zużycia energii może jeszcze potrwać, zanim przyjdzie faza optymalizacji i oszczędności. O tym, jak w Ameryce przygotowują się do obu tych procesów, już za tydzień…





