Umělá inteligence se stala synonymem pro efektivitu, inovaci a pokrok. Je všude – od vyhledávačů přes zdravotnictví a průmysl až po marketing. Jenže s jejím masovým rozšířením přichází i nová vlna rizik, nákladů a často opomíjených nevýhod. Níže jsme sepsali ty nejpalčivější problémy, které s sebou AI přináší.
Automatizace poháněná umělou inteligencí může nahradit rutinní i odborné profese. Například studie Světového ekonomického fóra odhaduje, že do roku 2025 zanikne až 85 milionů pracovních míst, i když zároveň vznikne 97 milionů nových.
Velké jazykové modely jako GPT‐5 nebo Gemini jsou školeny na obrovském množství dat, ale nikoli na pravdě. Vygenerovaný text tak může být gramaticky dokonalý a logicky plynulý, přesto zcela nepravdivý. Tento fenomén, označovaný jako hallucination, znamená, že AI si informace jednoduše „dovymyslí". Podle Stanford AI Index Report 2024 vykazuje model ChatGPT fabrikace (tj. halucinace, neověřitelné informace) přibližně v 19,5 % svých odpovědí.
Problém nastává ve chvíli, kdy se AI používá v rozhodovacích procesech – od výběru kandidátů po finanční analýzy. Člověk má tendenci důvěřovat algoritmu, který vystupuje sebejistě. Vzniká tak nový druh zkreslení: automation bias – slepá důvěra ve strojovou jistotu.
Trénování velkých jazykových modelů, jako jsou GPT‐5 od OpenAI nebo Gemini od Googlu, vyžaduje obrovské množství energie. Podle studie University of Massachusetts Amherst 2019 může trénink jednoho rozsáhlého modelu NLP vyprodukovat až 284 tun CO2 – tedy zhruba tolik, kolik pět automobilů za celou jejich životnost.
A to nejsou jediné náklady. Firmy investují do AI nástrojů, ale často zapomínají na „skryté lidské náklady“ – tisíce moderátorů, kteří ručně označují nevhodný obsah, nebo analytiky, kteří korigují výsledky modelů. Podle renomovaného deníku The Guardian jsou tyto práce často podhodnocené a v rozvojových zemích probíhají za hranicí etiky.
AI je hladová po datech. Každý dotaz, nahraný dokument nebo obrazový vstup se může stát tréninkovým materiálem. Zpráva Evropské komise 2025 varuje, že bez jasných pravidel hrozí masové zneužití osobních dat – od biometriky po zdravotní záznamy.
Experti na kybernetickou bezpečnost upozorňují, že AI generovaný obsah se stává nástrojem šíření dezinformací a phishingu. Podle Europol EU SOCTA 2025 generativní AI už významně urychluje a usnadňuje kyberútoky, včetně phishingu, šíření dezinformací i tvorby deepfakes, a její zneužití v kyberkriminalitě rychle narůstá. S rostoucí sofistikovaností modelů bude odlišení pravdivého obsahu od falešného stále těžší.
Kdo nese odpovědnost za chybu, kterou způsobí AI? Tato otázka zůstává otevřená. Evropský AI Act sice definuje rizikové kategorie použití AI, ale praxe ukazuje, že odpovědnost se často ztrácí mezi dodavatelem technologie a uživatelem.
V právní oblasti se diskutuje, zda by AI měla být považována za „právní subjekt“, nebo zda odpovědnost zůstane výhradně na člověku. Dokud ale AI zůstává nástrojem bez vlastního závazku, každý její výsledek musí projít lidskou kontrolou.
Automatizace rozhodování přináší i etické otázky. AI může rozhodovat o tom, kdo dostane úvěr, práci nebo přístup ke zdravotní péči – a to na základě dat, která mohou obsahovat historické zkreslení. Člověk pak má pocit, že o jeho životě rozhoduje algoritmus, nikoli druhý člověk.
Profesor Yuval Noah Harari varuje, že pokud necháme AI interpretovat realitu za nás, ztratíme nejen kontrolu nad informacemi, ale i nad vlastním příběhem. AI se může stát zrcadlem našich slabin – neomylná pouze v iluzi.
AI je mocný nástroj, nikoli arbitr pravdy. Chybovat bude – a často s přesvědčením, které může působit nebezpečněji než neznalost. Klíčem proto není slepá důvěra, ale kritická kontrola, etický dohled a schopnost rozpoznat limity technologie.
Jak kdysi poznamenal Voltaire: „Pochybovat je nepohodlné, ale jistota je absurdní.“