Ekologický dopad AI: Co se děje v pozadí?

June 8, 2025
Article: AI ekologie 1

Pokaždé, když využíváme umělou inteligencí – ať pro generování či zpracování textů, obrázků, či videí – spouštíme v pozadí energeticky náročný procesy. Ty mají dopad na spotřebu elektřiny, a dokonce i vody, které jsou využívány přímo, či nepřímo pro chod výpočetních zařízení a jejich chlazení.


Abychom mohli k AI přistupovat zodpovědněji, je nezbytné pochopit, co se děje v pozadí. Díky tomu získáme povědomí nejen o tom, že se nejedná o neomylný zdroj pravdy, ale i že má určitý dopad na životní prostředí.


Pozadí zpracování promptu

Naše interakce s AI modely má značnou závislost na zdrojích. Ale jak přesně naše posílání si zpráv s těmito modely spotřebovává elektřinu, a co víc, vodu? Odpověď leží v několika klíčových frázích a fázích:


Učení modelu

Než je model připraven generovat odpovědi, prochází náročným trénovacím procesem. 


Velké jazykové modely (LLM) se učí pomocí samo-supervizovaného učení. To znamená, že modely nejsou trénovány na datech s explicitními popisky, ale učí se predikovat následující slovo na základě předchozího kontextu. Tento přístup umožňuje modelům efektivně využívat rozsáhlé nestrukturované texty.


Základní architekturou těchto modelů jsou transformery, které umožňují efektivní zpracování sekvencí a zachycení dlouhodobých závislostí v textu. Během tréninku model prochází texty, předpovídá následující slova a na základě chyb upravuje své vnitřní parametry. Tento proces probíhá na rozsáhlých datech zahrnujících texty z internetu, knih, kódu a dalších zdrojů.


Pro efektivní strojové učení jsou klíčové dvě věci: kvalitní data a jejich dostatečné množství. Díky tomu se modely učí imitovat lidskou interakci tím, že předpovídají, jaké slovo by mohlo následovat na základě předchozího kontextu, který si udržují ve své paměti, známé jako kontextové okno.


Environmentální dopad

Trénování je však náročné nejen na energie pro výpočetní techniku, ale i na vodu. Například trénování modelu GPT-3 v datových centrech společnosti Microsoft spotřebovalo přibližně 700 000 litrů pitné vody ve formě parních emisí. Toto množství vody odpovídá například spotřebě potřebné k výrobě zhruba 320 elektromobilů Tesla.


Tato spotřeba vody je také důsledkem potřeby udržovat servery v datových centrech v optimální teplotě. Chlazení se často realizuje pomocí vodních systémů, kde voda absorbuje teplo generované servery a následně se odpařuje v chladicích věžích. Tento proces je energeticky náročný, což vyvolává obavy o udržitelnost v kontextu rostoucího využívání AI.



Hostování modelu

Velikost velkých jazykových modelů (LLM) je určena počtem parametrů, neuronů, které lze chápat jako váhy v neuronové síti. Tyto parametry ovlivňují schopnost modelu zachytit složité jazykové vzory a vztahy. Obecně platí, že čím více parametrů model má, tím lepší je jeho schopnost porozumět a generovat přirozený jazyk.


Malé modely, například s několika jednotkami miliard parametrů, lze provozovat lokálně na počítačích. Tyto modely jsou vhodné pro aplikace, kde je důležitá bezpečnost, rychlost odezvy a nižší nároky na hardware.


Na druhé straně, největší a nejvýkonnější modely, jako je LLaMA 3.1 s 405 miliardami parametrů, vyžadují specializovaný hardware a infrastrukturu. Pro jejich provoz jsou nezbytné servery s vysokou kapacitou VRAM a výkonnými GPU. Například provoz LLaMA 3.1 v režimu fp16 (přesnost vah, floating point) vyžaduje přibližně 972 GB VRAM.


Tyto rozsáhlé modely jsou obvykle hostovány v datových centrech, které poskytují potřebný výpočetní výkon a infrastrukturu pro jejich běh. Cloudové platformy, jako je Google Cloud Platform nebo Microsoft Azure, nabízejí služby pro nasazení a správu těchto modelů, včetně optimalizace výkonu a škálovatelnosti.



Zpracování vstupu

Po zadání promptu je požadavek okamžitě odeslán do datového centra, kde je předán specializovanému hardwaru. Každý krok zpracování vstupu a generování výstupu velkými jazykovými modely (LLM) přispívá k celkové spotřebě energie.

  • Tokenizace
    Textový vstup se rozděluje na menší jednotky zvané tokeny. Tento proces vyžaduje výpočetní výkon, ale jeho energetická náročnost je ve srovnání s dalšími kroky relativně nízká.
  • Převedení na embeddingy
    Každý token je převeden na číselný vektor (embedding), který zachycuje jeho sémantický význam. Tento krok zahrnuje maticové operace a běží na specializovaném hardwaru, což přispívá k energetické spotřebě.
  • Zpracování modelem (Inference)
    Embeddingy jsou dále zpracovány architekturou modelu, typicky založenou na transformerech. Tento krok je nejvíce energeticky náročný, zejména u velkých modelů s miliardami parametrů.
  • Predikce dalšího tokenu
    Model vypočítává pravděpodobnosti následujících tokenů a generuje výstup. Energetická náročnost tohoto kroku závisí na délce generovaného textu a složitosti modelu. Modely s cca 7 miliardami parametrů spotřebují přibližně 3–4 Joulů na token.
  • Ovlivnění výstupu parametry
    Parametry jako „teplota“ mění charakter výstupu (deterministický vs. náhodný). Přímý vliv na spotřebu energie nemají, ale mohou ovlivnit délku a složitost textu, což nepřímo mění energetickou náročnost


Náročnost výpočtů

Čím větší a složitější model, tím více energie vyžaduje. Každý krok – od tokenizace po generování výstupu – běží na specializovaném hardwaru, často na GPU jako NVIDIA H100.

Jak náročné jsou tyto výpočty?
Jedno GPU NVIDIA H100 (SXM) může mít spotřebu až 700 wattů. V datových centrech jsou tato GPU zapojena do racků, viz obrazek, které spotřebují desítky kilowattů. Pro představu, s 700 Wh energie lze provozovat:

Zařízení / Aktivita

Spotřeba

Doba provozu s 700 Wh

NVIDIA H100 GPU (SXM)

700 W

1 hodina

LED žárovka

10 W

70 hodin (cca 3 dny)

Nabíjení chytrého telefonu

15 Wh na nabití

Přibližně 46 nabití


Tvorba tepla a chlazení

Provoz LLM generuje značné množství tepla. Datová centra proto používají pokročilé chladicí systémy, které spotřebovávají další energii a také vodu. Chlazení může tvořit až 30–40 % celkové spotřeby energie datového centra. Průměrná spotřeba vody na chlazení může dosahovat 1,8 litru na každou kWh energie. Některá datová centra tak mohou spotřebovat denně 11–19 milionů litrů vody, což odpovídá spotřebě města s 30 000–50 000 obyvateli.


Spotřeba vody a energie na jeden prompt

Jednotlivý prompt může mít nízkou spotřebu, ale při miliardách dotazů denně se kumulativní dopad významně zvyšuje. Studie University of California, Riverside uvádí, že zpracování 5–50 AI promptů spotřebuje až 0,5 litru vody (převážně na chlazení).


Inference různých modelů na kratší dotaz

Běžně platí, že reasoning modely jsou výrazně náročnější na energii než klasické modely. Je to patrné například u DeepSeeku, kde je verze V3 energeticky přibližně 8-krát úspornější než R1, podobně jako model OpenAI o3 oproti GPT-4.1. Pro detailnější srovnání energetické náročnosti doporučuji pročíst následující článek


V obrázku níže lze pozorovat výrazně vyšší využití tokenů reasoning modeu R1 oproti klasickým modelům.



Odhadovaná spotřeba energie a emisí CO₂ na jeden textový dotaz (orientační):

Typ úlohy

Spotřeba energie / dotaz

Emise CO₂e / dotaz

Přirovnání spotřeby

Prosté vyhledávání

~0,300 Wh

~0,2 g

Napájení LED žárovky (10 W) po dobu ~2 minut

ChatGPT (např. GPT-4o)

~0,421 Wh

~0,3 g

Napájení LED žárovky po dobu ~2,5–3 minut

Energeticky náročnější modely (o3, DeepSeek)

~23.82 Wh

~23 g

Nabití mobilu ~3–4×


Kumulativní dopad při 1 miliardě dotazů denně:

Energie: cca 430 MWh denně, což odpovídá spotřebě přibližně 14 000 domácností (průměrná denní spotřeba 30 kWh).

  • Emise CO₂: přibližně 300 tun denně.

Spotřeba vody: až 10 milionů litrů denně.


Zvyšování energetické náročnosti vyhledávání

Integrace LLM modelů (large language models) do digitálních nástrojů, se kterými se běžně setkáváme v online prostředí, se stává novodobým trendem. Většina velkých vyhledávačů – včetně Google Search – dnes využívá AI modely pro sumarizaci výsledků vyhledávání. Tento přístup však kombinuje energetickou náročnost tradičního vyhledávání s dodatečnými výpočetními náklady spojenými s provozem LLM. Více o tom si můžete přečíst [zde].


Na rozdíl od alternativ jako DuckDuckGo či Ecosia Google aktuálně neumožňuje tyto AI funkce plně deaktivovat, což vede ke zvýšení energetické stopy i při jednoduchém vyhledávání.


Shrnutí

Přímý vztah mezi naším dotazem a reálnou spotřebou zdrojů ukazuje, že každá interakce s AI má svou energetickou, a tím i ekologickou cenu. Mezinárodní agentura pro energii (International Energy Agency) odhaduje, že globální spotřeba elektřiny ze strany datových center se do roku 2030 více než zdvojnásobí – na přibližně 945 terawatthodin (TWh), což je zhruba tolik, kolik dnes spotřebuje celé Japonsko.


Vzhledem k těmto nárokům se nabízí dvě otázky: jak vlastně fungují datová centra, že tak žerou energii i vodu, a co můžeme dělat abychom tuhle stopu minimalizovali?

Na první otázku, co jsou to datová centra, která jsou srdcem všech těchto procesů, a jaké konkrétní environmentální dopady s sebou jejich provoz nesou se zaměříme v další části. Na druhou otázku se pak zaměříme v posledním článku z této trilogie.

Author
David Omrai
David Omrai
Software Engineer

I am a software engineer passionate about web development, AI, and optimisation. I have experience with TypeScript, Next.js, Python, and several other languages. I'm always happy to learn new technologies that solve real-world challenges.

Související články

AI: Pomocník nebo hrozba pro juniory?

AI ve vývoji očima juniora: cenný pomocník, nebo neviditelná berlička, která brzdí růst?

David Omrai Profile Picture

David Omrai

May 20, 2025

Jak zjistit, že je správný čas na implementaci AI?

Praktický průvodce pro firmy, které uvažují o využití AI, ale ještě váhají.

Bara Mrackova Profile Picture

Bára Mrkáčková

May 24, 2025

Květnové AI novinky

Jako každý měsíc jsme pro vás vybrali to nejdůležitější a přehledně shrnuli, co podle nás v AI nejvíc zarezonovalo.

Jakub Vacek

Jakub Vacek

June 1, 2025

Jak Netflix ví, co chceš sledovat dřív, než ty?

Jak funguje systém pro doporučování na Netflixu.

Sabina Balejikova Profile Picture

Sabina Balejikova

April 28, 2025