Pokaždé, když využíváme umělou inteligencí – ať pro generování či zpracování textů, obrázků, či videí – spouštíme v pozadí energeticky náročný procesy. Ty mají dopad na spotřebu elektřiny, a dokonce i vody, které jsou využívány přímo, či nepřímo pro chod výpočetních zařízení a jejich chlazení.
Abychom mohli k AI přistupovat zodpovědněji, je nezbytné pochopit, co se děje v pozadí. Díky tomu získáme povědomí nejen o tom, že se nejedná o neomylný zdroj pravdy, ale i že má určitý dopad na životní prostředí.
Pozadí zpracování promptu
Naše interakce s AI modely má značnou závislost na zdrojích. Ale jak přesně naše posílání si zpráv s těmito modely spotřebovává elektřinu, a co víc, vodu? Odpověď leží v několika klíčových frázích a fázích:
Učení modelu
Než je model připraven generovat odpovědi, prochází náročným trénovacím procesem.
Velké jazykové modely (LLM) se učí pomocí samo-supervizovaného učení. To znamená, že modely nejsou trénovány na datech s explicitními popisky, ale učí se predikovat následující slovo na základě předchozího kontextu. Tento přístup umožňuje modelům efektivně využívat rozsáhlé nestrukturované texty.
Základní architekturou těchto modelů jsou transformery, které umožňují efektivní zpracování sekvencí a zachycení dlouhodobých závislostí v textu. Během tréninku model prochází texty, předpovídá následující slova a na základě chyb upravuje své vnitřní parametry. Tento proces probíhá na rozsáhlých datech zahrnujících texty z internetu, knih, kódu a dalších zdrojů.
Pro efektivní strojové učení jsou klíčové dvě věci: kvalitní data a jejich dostatečné množství. Díky tomu se modely učí imitovat lidskou interakci tím, že předpovídají, jaké slovo by mohlo následovat na základě předchozího kontextu, který si udržují ve své paměti, známé jako kontextové okno.
Environmentální dopad
Trénování je však náročné nejen na energie pro výpočetní techniku, ale i na vodu. Například trénování modelu GPT-3 v datových centrech společnosti Microsoft spotřebovalo přibližně 700 000 litrů pitné vody ve formě parních emisí. Toto množství vody odpovídá například spotřebě potřebné k výrobě zhruba 320 elektromobilů Tesla.
Tato spotřeba vody je také důsledkem potřeby udržovat servery v datových centrech v optimální teplotě. Chlazení se často realizuje pomocí vodních systémů, kde voda absorbuje teplo generované servery a následně se odpařuje v chladicích věžích. Tento proces je energeticky náročný, což vyvolává obavy o udržitelnost v kontextu rostoucího využívání AI.
Hostování modelu
Velikost velkých jazykových modelů (LLM) je určena počtem parametrů, neuronů, které lze chápat jako váhy v neuronové síti. Tyto parametry ovlivňují schopnost modelu zachytit složité jazykové vzory a vztahy. Obecně platí, že čím více parametrů model má, tím lepší je jeho schopnost porozumět a generovat přirozený jazyk.
Malé modely, například s několika jednotkami miliard parametrů, lze provozovat lokálně na počítačích. Tyto modely jsou vhodné pro aplikace, kde je důležitá bezpečnost, rychlost odezvy a nižší nároky na hardware.
Na druhé straně, největší a nejvýkonnější modely, jako je LLaMA 3.1 s 405 miliardami parametrů, vyžadují specializovaný hardware a infrastrukturu. Pro jejich provoz jsou nezbytné servery s vysokou kapacitou VRAM a výkonnými GPU. Například provoz LLaMA 3.1 v režimu fp16 (přesnost vah, floating point) vyžaduje přibližně 972 GB VRAM.
Tyto rozsáhlé modely jsou obvykle hostovány v datových centrech, které poskytují potřebný výpočetní výkon a infrastrukturu pro jejich běh. Cloudové platformy, jako je Google Cloud Platform nebo Microsoft Azure, nabízejí služby pro nasazení a správu těchto modelů, včetně optimalizace výkonu a škálovatelnosti.
Zpracování vstupu
Po zadání promptu je požadavek okamžitě odeslán do datového centra, kde je předán specializovanému hardwaru. Každý krok zpracování vstupu a generování výstupu velkými jazykovými modely (LLM) přispívá k celkové spotřebě energie.
- Tokenizace
Textový vstup se rozděluje na menší jednotky zvané tokeny. Tento proces vyžaduje výpočetní výkon, ale jeho energetická náročnost je ve srovnání s dalšími kroky relativně nízká. - Převedení na embeddingy
Každý token je převeden na číselný vektor (embedding), který zachycuje jeho sémantický význam. Tento krok zahrnuje maticové operace a běží na specializovaném hardwaru, což přispívá k energetické spotřebě. - Zpracování modelem (Inference)
Embeddingy jsou dále zpracovány architekturou modelu, typicky založenou na transformerech. Tento krok je nejvíce energeticky náročný, zejména u velkých modelů s miliardami parametrů. - Predikce dalšího tokenu
Model vypočítává pravděpodobnosti následujících tokenů a generuje výstup. Energetická náročnost tohoto kroku závisí na délce generovaného textu a složitosti modelu. Modely s cca 7 miliardami parametrů spotřebují přibližně 3–4 Joulů na token. - Ovlivnění výstupu parametry
Parametry jako „teplota“ mění charakter výstupu (deterministický vs. náhodný). Přímý vliv na spotřebu energie nemají, ale mohou ovlivnit délku a složitost textu, což nepřímo mění energetickou náročnost
Náročnost výpočtů
Čím větší a složitější model, tím více energie vyžaduje. Každý krok – od tokenizace po generování výstupu – běží na specializovaném hardwaru, často na GPU jako NVIDIA H100.
Jak náročné jsou tyto výpočty?
Jedno GPU NVIDIA H100 (SXM) může mít spotřebu až 700 wattů. V datových centrech jsou tato GPU zapojena do racků, viz obrazek, které spotřebují desítky kilowattů. Pro představu, s 700 Wh energie lze provozovat:
Zařízení / Aktivita | Spotřeba | Doba provozu s 700 Wh |
---|---|---|
NVIDIA H100 GPU (SXM) | 700 W | 1 hodina |
LED žárovka | 10 W | 70 hodin (cca 3 dny) |
Nabíjení chytrého telefonu | 15 Wh na nabití | Přibližně 46 nabití |
Tvorba tepla a chlazení
Provoz LLM generuje značné množství tepla. Datová centra proto používají pokročilé chladicí systémy, které spotřebovávají další energii a také vodu. Chlazení může tvořit až 30–40 % celkové spotřeby energie datového centra. Průměrná spotřeba vody na chlazení může dosahovat 1,8 litru na každou kWh energie. Některá datová centra tak mohou spotřebovat denně 11–19 milionů litrů vody, což odpovídá spotřebě města s 30 000–50 000 obyvateli.
Spotřeba vody a energie na jeden prompt
Jednotlivý prompt může mít nízkou spotřebu, ale při miliardách dotazů denně se kumulativní dopad významně zvyšuje. Studie University of California, Riverside uvádí, že zpracování 5–50 AI promptů spotřebuje až 0,5 litru vody (převážně na chlazení).
Inference různých modelů na kratší dotaz
- GPT-4o: ~0,421 Wh na dotaz.
- Claude 3.7 Sonnet: ~0,836 Wh na dotaz.
- GPT-4.1 nano: ~0,103 Wh na dotaz.
- DeepSeek-R1 a o3: ~23.82 Wh na dotaz.
Běžně platí, že reasoning modely jsou výrazně náročnější na energii než klasické modely. Je to patrné například u DeepSeeku, kde je verze V3 energeticky přibližně 8-krát úspornější než R1, podobně jako model OpenAI o3 oproti GPT-4.1. Pro detailnější srovnání energetické náročnosti doporučuji pročíst následující článek.
V obrázku níže lze pozorovat výrazně vyšší využití tokenů reasoning modeu R1 oproti klasickým modelům.
Odhadovaná spotřeba energie a emisí CO₂ na jeden textový dotaz (orientační):
Typ úlohy | Spotřeba energie / dotaz | Emise CO₂e / dotaz | Přirovnání spotřeby |
---|---|---|---|
Prosté vyhledávání | Napájení LED žárovky (10 W) po dobu ~2 minut | ||
ChatGPT (např. GPT-4o) | ~0,3 g | Napájení LED žárovky po dobu ~2,5–3 minut | |
Energeticky náročnější modely (o3, DeepSeek) | ~23 g | Nabití mobilu ~3–4× |
Kumulativní dopad při 1 miliardě dotazů denně:
Energie: cca 430 MWh denně, což odpovídá spotřebě přibližně 14 000 domácností (průměrná denní spotřeba 30 kWh).
- Emise CO₂: přibližně 300 tun denně.
Spotřeba vody: až 10 milionů litrů denně.
Zvyšování energetické náročnosti vyhledávání
Integrace LLM modelů (large language models) do digitálních nástrojů, se kterými se běžně setkáváme v online prostředí, se stává novodobým trendem. Většina velkých vyhledávačů – včetně Google Search – dnes využívá AI modely pro sumarizaci výsledků vyhledávání. Tento přístup však kombinuje energetickou náročnost tradičního vyhledávání s dodatečnými výpočetními náklady spojenými s provozem LLM. Více o tom si můžete přečíst [zde].
Na rozdíl od alternativ jako DuckDuckGo či Ecosia Google aktuálně neumožňuje tyto AI funkce plně deaktivovat, což vede ke zvýšení energetické stopy i při jednoduchém vyhledávání.
Shrnutí
Přímý vztah mezi naším dotazem a reálnou spotřebou zdrojů ukazuje, že každá interakce s AI má svou energetickou, a tím i ekologickou cenu. Mezinárodní agentura pro energii (International Energy Agency) odhaduje, že globální spotřeba elektřiny ze strany datových center se do roku 2030 více než zdvojnásobí – na přibližně 945 terawatthodin (TWh), což je zhruba tolik, kolik dnes spotřebuje celé Japonsko.
Vzhledem k těmto nárokům se nabízí dvě otázky: jak vlastně fungují datová centra, že tak žerou energii i vodu, a co můžeme dělat abychom tuhle stopu minimalizovali?
Na první otázku, co jsou to datová centra, která jsou srdcem všech těchto procesů, a jaké konkrétní environmentální dopady s sebou jejich provoz nesou se zaměříme v další části. Na druhou otázku se pak zaměříme v posledním článku z této trilogie.
Author

David Omrai
Software EngineerI am a software engineer passionate about web development, AI, and optimisation. I have experience with TypeScript, Next.js, Python, and several other languages. I'm always happy to learn new technologies that solve real-world challenges.
Související články
AI: Pomocník nebo hrozba pro juniory?
AI ve vývoji očima juniora: cenný pomocník, nebo neviditelná berlička, která brzdí růst?

David Omrai
Jak zjistit, že je správný čas na implementaci AI?
Praktický průvodce pro firmy, které uvažují o využití AI, ale ještě váhají.

Bára Mrkáčková
Jako každý měsíc jsme pro vás vybrali to nejdůležitější a přehledně shrnuli, co podle nás v AI nejvíc zarezonovalo.

Jakub Vacek
Jak Netflix ví, co chceš sledovat dřív, než ty?
Jak funguje systém pro doporučování na Netflixu.

Sabina Balejikova