Modely umělé inteligence nakrmí vše, na co narazí - osobní, zdravotní, finanční údaje i tajné informace.
Data jsou pro umělou inteligenci tím, čím je krev pro organismus – bez nich systémy ztrácejí schopnost kontextualizace a přesnosti. S rozvojem multimodálních modelů a jejich integrací do kritických infrastruktur se však otázka přístupu k citlivým údajům přesouvá z roviny technické optimalizace do roviny existenčního rizika. Stojíme před zásadním rozporem: jak plně využít analytický potenciál AI nad osobními, zdravotními či finančními daty, aniž bychom rezignovali na soukromí a kybernetickou bezpečnost?
Zatímco rok 2024 byl ve znamení právních bitev o autorská práva a fair use (jak shrnuje analýza Baker Donelson o judikátech roku 2025), v letech 2025 a 2026 se ohnisko konfliktu přesouvá k integritě privátních datasetů.
Ve zdravotnictví AI slibuje revoluci v personalizované diagnostice a predikci rizik u pacientů (viz studie v Nature Medicine), ale zároveň čelí hrozbám Inference Attacks, kdy lze z výstupů modelu zpětně identifikovat konkrétní pacienty. Podobně kritická je situace ve finančním sektoru, kde se AI stává standardem pro systémy proti praní špinavých peněz (AML). Podle reportu SymphonyAI pro rok 2025 je nasazení prediktivní analytiky nezbytné pro zvládnutí objemu transakcí, ale modely samotné se stávají terčem pro exfiltraci citlivých dat.
Pro odbornou veřejnost je klíčovým vodítkem dokument NIST AI 600-1, který jasně definuje rizika neúmyslného vyzrazení dat (Data Exfiltration). Praktickou odpovědí na tyto výzvy je architektura RAG (Retrieval-Augmented Generation), poprvé definovaná Lewisem a kol. (2020).
Namísto rizikového dotrénování (fine-tuning), při kterém se citlivá data stávají trvalou součástí parametrů modelu, funguje RAG jako dynamické vyhledávání v izolovaném úložišti. Data jsou k modelu přikládána pouze v reálném čase jako kontext k dotazu a nestávají se součástí jeho „paměti“. Tento přístup naplňuje principy Privacy by Design (ochrana soukromí již od návrhu).
Znamená to, že zabezpečení není jen dodatečným opatřením, ale je integrováno přímo do technického jádra systému tak, aby k úniku dat nemohlo dojít již z principu jeho fungování. Tento koncept je v evropském právu ukotven v článku 25 GDPR, k němuž vydal podrobné metodické pokyny Evropský sbor pro ochranu osobních údajů.
Závažným fenoménem roku 2025 je Shadow AI – stav, kdy zaměstnanci používají neschválené AI nástroje k práci s interními daty. Podle statistik Menlo Security z srpna 2025 došlo k 68% nárůstu využívání volně dostupných modelů v podnikovém prostředí, přičemž více než polovina uživatelů do nich vkládá citlivé firemní údaje. Tento nekontrolovaný tok informací představuje tiché riziko pro duševní vlastnictví.
Řešení současné krize důvěry se opírá o koncepty Privacy-Enhancing Technologies (PETs). Nejde o pouhý teoretický koncept, ale o soubor nástrojů, které podle zprávy CIPL (Centre for Information Policy Leadership) z roku 2025 umožňují bezpečné sdílení dat mezi organizacemi.
Mezi tyto pilíře patří:
Konkrétním příkladem snahy o zabezpečení dat v kritické infrastruktuře je celoevropský projekt CIPHER, na kterém se podílí i čeští experti. Jak uvádí portál ComputerTrends, cílem tohoto konsorcia je vybudovat jednotnou „testovací laboratoř“, která pomocí AI automatizovaně vyhodnocuje zranitelnosti a simuluje útoky dříve, než k nim skutečně dojde.
Projekt je vyvíjen v přísném souladu s evropskými AI Act a GDPR, čímž vytváří metodickou oporu i pro české firmy řešící požadavky směrnice NIS2. Právě integrace AI do preventivní obrany je klíčem k udržení digitální suverenity.
Přístup k datům v éře AI není jen otázkou právní shody, ale strategickým pilířem digitální suverenity. Šance, kterou AI nabízí v analýze komplexních zdravotních či finančních systémů, je vykoupena nutností budovat nepropustné bariéry kolem samotné podstaty našeho soukromí.
Budoucnost nepatří těm, kteří mají nejvíce dat, ale těm, kteří dokáží garantovat jejich integritu a bezpečnost v každém kroku životního cyklu algoritmu.