Co vyžaduje EU AI Act
Přejít na sekci
Proč EU AI Act mění pravidla hry
EU AI Act (Nařízení Evropského parlamentu a Rady 2024/1689) je první komplexní právní rámec pro regulaci umělé inteligence na světě. Nabývá účinnosti postupně a klíčový deadline — srpen 2026 — se týká většiny povinností, které přímo ovlivní technické týmy.
Pokud váš tým vyvíjí, nasazuje nebo používá AI systémy v EU, tato regulace se vás týká. A to bez ohledu na to, zda jste startup s pěti lidmi nebo korporát s tisíci zaměstnanci. Rozhodující není velikost firmy, ale typ AI systému, který provozujete.
EU AI Act se netýká jen firem sídlících v EU. Týká se každého, kdo nabízí AI systémy na trhu EU nebo kdo využívá výstupy AI systémů v EU. Pokud vaši aplikaci používají evropští uživatelé, regulace se vás týká.
Časový harmonogram
EU AI Act vstoupil v platnost 1. srpna 2024, ale účinnost nabývá postupně. Jako technik musíte znát klíčové milníky:
- Únor 2025 — Zákaz nepřijatelných AI praktik (sociální scoring, manipulativní AI, neoprávněná biometrická identifikace v reálném čase)
- Srpen 2025 — Pravidla pro general-purpose AI modely (GPT, Claude, Gemini) — týká se hlavně poskytovatelů modelů
- Srpen 2026 — Hlavní deadline: požadavky na high-risk AI systémy, povinnosti provozovatelů, transparentní požadavky
- Srpen 2027 — Požadavky na high-risk AI systémy v regulovaných sektorech (zdravotnictví, finance, doprava)
Srpen 2026 je váš primární deadline. Do té doby musíte mít klasifikaci vašich AI systémů, dokumentaci a technická opatření. Nezačínejte v červenci 2026 — implementace zabere měsíce.
Rizikové kategorie — základ všeho
Celý EU AI Act je postaven na jednom konceptu: rizikové kategorie. Každý AI systém spadne do jedné ze čtyř úrovní rizika a od toho se odvíjí všechny povinnosti.
Nepřijatelné riziko (zakázané)
AI systémy, které jsou v EU úplně zakázané. Sociální scoring, manipulativní techniky, necílovaná biometrická identifikace v reálném čase. Pokud něco z toho děláte, přestaňte. Žádný compliance checklist vám nepomůže.
Vysoké riziko
AI systémy, které mají podstatný dopad na lidi — přijímání, úvěrové rozhodování, zdravotní diagnostika, bezpečnostní systémy. Tyto systémy mají nejpřísnější požadavky: data governance, transparence, lidský dohled, přesnost, robustnost.
Omezené riziko
AI systémy s povinnostmi transparence — chatboty, deepfakes, AI-generovaný obsah. Uživatelé musí být informováni, že interagují s AI nebo že obsah byl AI-generován.
Minimální riziko
Většina běžných AI aplikací — spamové filtry, doporučovací systémy pro obsah, AI asistenti pro kódování. Žádné specifické povinnosti podle AI Act, ale stále platí obecné právní předpisy.
Koho se to týká — role v ekosystému
EU AI Act definuje tři hlavní role s různou mírou odpovědnosti:
- Provider (poskytovatel) — kdo vyvíjí AI systém nebo ho uvádí na trh. Nejvyšší míra odpovědnosti. Pokud stavíte vlastní ML model nebo AI produkt, jste provider.
- Deployer (provozovatel) — kdo používá AI systém pod vlastní autoritou. Střední míra odpovědnosti. Pokud integrujete ChatGPT API do své aplikace, jste deployer.
- Importer/Distributor — kdo dováží nebo distribuuje AI systémy v EU. Relevantní pro resellery a system integrátory.
Většina technických týmů je v roli deployera — používáte AI modely (Claude, GPT, Gemini) ve svých aplikacích. Ale pokud jste fine-tunovali model nebo vytvořili vlastní, může se na vás vztahovat přísnější role providera.
Co to znamená pro váš tým dnes
Není třeba panikařit, ale je třeba začít. První krok je audit — identifikujte všechny AI systémy, které váš tým vyvíjí nebo používá. U každého určete rizikovou kategorii a vaši roli (provider vs. deployer). To je základ, na kterém postavíte compliance strategii.
Vytvořte seznam všech AI systémů, které váš tým vyvíjí, nasazuje nebo používá. Pro každý systém zapište: 1. Název a účel systému 2. Jaký AI model používá (vlastní, fine-tuned, API třetí strany) 3. Kdo je ovlivněn výstupem systému (zaměstnanci, zákazníci, veřejnost) 4. Do jaké rizikové kategorie systém pravděpodobně spadá 5. Jaká je vaše role (provider nebo deployer) Pokud máte více než 3 systémy v kategorii vysoké riziko, prioritizujte je podle data nasazení.
Nápověda
Nezapomeňte na AI systémy 'v pozadí' — automatické doporučovací algoritmy, AI ve vnitřním HR procesu, chatboty na zákaznické podpoře. Často si neuvědomujeme, kolik AI systémů už používáme.
- EU AI Act je první komplexní regulace AI — týká se každého, kdo nabízí nebo používá AI v EU
- Klíčový deadline je srpen 2026 pro většinu povinností
- Systém rizikových kategorií (nepřijatelné, vysoké, omezené, minimální) určuje vaše povinnosti
- Většina technických týmů je v roli deployera — používáte AI modely třetích stran
- První krok: audit všech AI systémů a jejich klasifikace