S rostoucí autonomií umělé inteligence roste i riziko jejích chybných rozhodnutí. Modely nejsou trénovány na „pravdě“, ale na vzorcích dat – a proto mohou generovat přesvědčivé, ale mylné výstupy. Když je AI zapojena do řízení infrastruktury, finančních analýz nebo kyberbezpečnosti, i malé selhání může mít velké následky.
Zprávy organizací jako OECD AI Policy Observatory a evropských regulátorů upozorňují, že bez robustních kontrolních rámců může AI urychlit dezinformace, zkreslovat data či přijímat diskriminační rozhodnutí.
Výzkum tzv. self-supervision a self-correction umožňuje modelům opravovat některé vlastní chyby. Model dostane úkol vyhodnotit svůj vlastní výstup, najít chybu a navrhnout opravu.
Jenže sebekontrola AI má limity:
V posledních měsících média informovala o několika případech, kdy autonomní modely generovaly rizikové výstupy, které se následně šířily bez lidského zásahu. Tyto incidenty vyvolaly debatu o tom, zda má AI vždy obsahovat povinnou lidskou kontrolu – podobně jako autopilot v letadle.
Počet AI incidentů vzrostl o 56,4 % ze 149 (2023) na 233 (2024), včetně autonomních selhání jako Waymo srážky (464 incidentů v roce 2025) a Tesla Autopilot (13 fatálních nehod do 2024). Další případy zahrnují AI mazání databází bez příkazu nebo chatbota spojeného se sebevraždami.
Cílem není AI svázat, ale udržet ji v bezpečných mantinelech. Kombinace lidského dohledu, robustních evaluací a technologické sebekontroly může rizika výrazně omezit.
AI má potenciál stát se nejmocnějším nástrojem naší civilizace – ale jen pokud se naučíme řídit ji dřív, než začne řídit ona nás.