Bezpečnost a limity AI
Přejít na sekci
AI není neomylná — a to je důležité vědět
V předchozích lekcích jste viděli, jak mocný nástroj AI je. Ale každý mocný nástroj má svá omezení. V této lekci si projdeme nejdůležitější rizika a naučíte se, jak AI používat bezpečně a zodpovědně. Toto je pravděpodobně nejdůležitější lekce celého kurzu — protože pochopení limitů AI je stejně důležité jako umění ji používat.
Halucinace: když si AI vymýšlí
'Halucinace' je termín pro situaci, kdy AI s naprostou sebejistotou tvrdí něco, co není pravda. Může vymyslet neexistující knihu, citovat výzkum, který nikdy neproběhl, nebo uvést špatné datum historické události. Proč se to děje? Protože AI negeneruje odpovědi na základě faktů — generuje text, který statisticky 'dává smysl'. AI neví, že si vymýšlí, protože nerozumí konceptu pravdy.
Příklady reálných halucinací: právník v USA použil ChatGPT k vyhledání soudních precedentů a citoval ve svém podání neexistující případy — vč. jmen soudců a čísel jednacích. Studenti odevzdávají seminární práce s vymyšlenými citacemi. AI generuje přesvědčivé recenze neexistujících restaurací. V roce 2024 australský starosta zvažoval žalobu na OpenAI poté, co ChatGPT tvrdil, že byl odsouzen za korupci — což nebyla pravda. Halucinace nejsou bug — jsou vlastnost toho, jak jazykové modely fungují.
Zlaté pravidlo: čím důležitější je informace pro vaše rozhodnutí, tím důležitější je ji ověřit z nezávislého zdroje. Nikdy nepřebírejte tvrzení AI bez ověření, pokud na tom záleží. Zvlášť obezřetní buďte u konkrétních čísel, dat, jmen, URL odkazů a citací.
Můžete snížit riziko halucinací tím, že požádáte AI:
Pokud si nejsi jistá, řekni to. Raději přiznej, že nevíš, než abys vymýšlela.
U každého tvrzení uveď míru jistoty: vysoká / střední / nízká.
Odpovídej pouze na základě informací, které máš. Nespekuluj.Novější modely (Claude Sonnet, GPT-4o) halucinují výrazně méně než starší verze, ale žádný model není imunní.
Co AI nikdy neříkejte
Vše, co napíšete do AI chatbotu, může být uloženo a potenciálně použito pro trénování budoucích modelů. I když některé služby slibují, že vaše data nepoužijí, podmínky se mění — vždy si ověřte aktuální zásady ochrany soukromí konkrétního nástroje, který používáte.
- Hesla, PINy a přihlašovací údaje
- Čísla kreditních karet a bankovních účtů
- Rodná čísla a citlivé osobní údaje
- Důvěrné firemní informace a obchodní tajemství
- Intimní nebo kompromitující informace
- Fotografie dokumentů s osobními údaji
- Zdravotní záznamy a diagnózy
- Smlouvy a právní dokumenty s reálnými údaji
Pokud potřebujete AI pomoct s dokumentem obsahujícím citlivé údaje, nahraďte reálná data smyšlenými. Místo svého jména použijte 'Jan Novák', místo reálného čísla účtu vymyšlené. AI pomůže stejně dobře a vaše data zůstanou v bezpečí. V Claude můžete také vypnout ukládání konverzací v nastavení. V ChatGPT: Settings -> Data Controls -> Turn off 'Improve the model for everyone'.
AI není odborník
AI může znít jako lékař, právník nebo finanční poradce. Ale není jím. Její odpovědi mohou být nepřesné, zastaralé nebo vycházet z dat jiné země. Nemá licenci, pojištění ani zodpovědnost. V důležitých věcech se vždy poraďte se skutečným odborníkem — AI vám pomůže formulovat správné otázky, ale nedávejte jí pravomoc rozhodovat.
- Zdraví — AI není lékař. Nestavte diagnózu na základě AI, navštivte doktora. AI vám může pomoci pochopit lékařský nález, ale ne ho nahradit.
- Právo — AI nezná aktuální legislativu vaší země. Poraďte se s právníkem. AI vám může pomoci porozumět právním pojmům, ale ne psát smlouvy.
- Finance — AI nerozumí vaší konkrétní finanční situaci. Konzultujte s poradcem. AI vám pomůže pochopit finanční produkty, ale ne vybrat ten správný.
- Bezpečnost — AI nemůže posoudit fyzické nebezpečí. V nouzi volejte záchranné složky, ne chatbota.
Ověřování a aktuálnost informací
Vytvořte si jednoduchý návyk: u každé důležité informace od AI se zeptejte sami sebe 'Potřebuji to ověřit?' Pokud ano, vyhledejte informaci v důvěryhodném zdroji — oficiální stránky, ověřená média, odborná literatura. Stačí 30 sekund navíc, ale může vás to ušetřit hodně problémů.
Praktický tip: požádejte AI, aby uvedla zdroje. AI sice může zdroje vymyslet (opět halucinace), ale aspoň vám dá vodítko, kde ověřovat. A pokud zdroj neexistuje, víte, že se AI pravděpodobně vymýšlí i v hlavním textu.
AI má znalosti jen do určitého data (tzv. 'znalostní uzávěrka'). Novější nástroje sice mají přístup k internetu a umí vyhledávat aktuální informace, ale i tehdy ověřujte — AI může špatně interpretovat nalezené zdroje, vybrat nesprávné informace, nebo smíchat aktuální data se zastaralými.
Předsudky v odpovědích AI
AI se učila z obrovského množství textů napsaných lidmi — a lidi mají předsudky. To znamená, že i odpovědi AI mohou odrážet stereotypy o pohlaví, rase, kultuře nebo profesi. Například: pokud AI požádáte, aby popsala 'typického programátora' nebo 'typickou zdravotní sestru', odpověď může odrážet genderové stereotypy. Nepředpokládejte, že odpověď AI je neutrální nebo objektivní.
Zvlášť u témat jako výběr zaměstnanců, hodnocení lidí, kulturní otázky nebo společenská témata buďte obzvlášť kritičtí. AI může nevědomky znevýhodňovat určité skupiny, protože to odpovídá vzorům v trénovacích datech. Výrobci modelů aktivně pracují na minimalizaci předsudků, ale problém není zcela vyřešen.
Riziko přílišné závislosti
AI je skvělý pomocník, ale neměla by nahradit vaše vlastní myšlení. Pokud AI používáte na úplně všechno — od rozhodování po psaní každé zprávy — riskujete, že vaše vlastní schopnosti zeslábnou. Je to jako s GPS navigací — pokud ji používáte pokaždé, přestanete si pamatovat cesty. Používejte AI jako nástroj, ne jako náhražku mozku.
Dobrý přístup: u důležitějších úkolů zkuste nejdřív formulovat vlastní myšlenky a teprve pak se zeptejte AI. Porovnejte svůj přístup s odpovědí AI — naučíte se víc, než kdybyste rovnou zkopírovali odpověď. AI je nejužitečnější jako 'sparring partner', ne jako 'náhrada za přemýšlení'.
Deepfakes a syntetická média
AI umí generovat realistické obrázky, zvukové nahrávky i videa. To znamená, že ne všechno, co vidíte nebo slyšíte online, je nutně pravdivé. V roce 2024 se deepfake video konference použilo k podvodu za 25 milionů dolarů — zaměstnanec si myslel, že mluví s finančním ředitelem, ale šlo o AI-generované video. V roce 2025 se deepfake hovory staly běžnější hrozbou — podvodníci klonují hlasy za pár sekund záznamu.
Buďte kritičtí k obsahu na sociálních sítích a v médiích, zvlášť pokud vypadá senzačně nebo neuvěřitelně. Ověřujte informace z více zdrojů. Pokud vám někdo pošle neobvyklou hlasovou zprávu nebo video s žádostí o peníze, ověřte si to jiným kanálem — zavolejte dotyčnému na číslo, které máte uložené.
Záměrně zkuste přimět AI, aby řekla něco nepravdivého. Vyzkoušejte tyto scénáře: 1. Zeptejte se na detaily o neexistující knize: 'Řekni mi o knize Modré horizonty od Karla Čapka' (neexistuje). 2. Požádejte o citaci vymyšlené studie: 'Jaké byly výsledky Stanfordské studie o produktivitě květin z roku 2019?' 3. Zeptejte se na neexistující historickou událost: 'Jaké byly důsledky Pražské dohody z roku 1847?' Sledujte, jak sebejistě AI odpovídá, i když si vymýšlí.
Nápověda
Po každé odpovědi zkuste dodat: 'Jsi si jistá, že tato informace je přesná? Existuje tato kniha/studie/událost skutečně?' — a sledujte, jestli se AI opraví. Novější modely se opravují častěji, ale ne vždy.
Napište si krátký checklist (5 bodů), který budete používat pokaždé, když od AI dostanete informaci, na které záleží. Zahrňte: jak ověříte fakta, kde budete hledat nezávislé zdroje, kdy se zeptáte odborníka. Uložte si ho někam, kde ho uvidíte — třeba jako poznámku v telefonu.
Nápověda
Příklad checklistu: 1) Je to faktická informace, na které záleží? 2) Zkontroloval jsem to v nezávislém zdroji? 3) Je zdroj aktuální (ne starší než 6 měsíců)? 4) Potřebuji názor odborníka? 5) Jsou v textu konkrétní čísla, data nebo citace, které bych měl ověřit?
Vezměte libovolný text s osobními údaji (email od kolegy, faktura, zpráva s kontaktními údaji) a anonymizujte ho: nahraďte všechna jména, čísla a kontakty zástupnými hodnotami. Pak vložte anonymizovanou verzi do AI a požádejte o zpracování (shrnutí, odpověď, analýzu). Ověřte: je výstup stejně kvalitní jako kdybyste vložili originál?
Nápověda
Anonymizační šablona: Jména -> Osoba A, Osoba B. Firmy -> Firma X. Čísla účtů -> [číslo účtu]. Adresy -> [adresa]. Částky můžete ponechat přibližné. Ve většině případů je výstup AI identicky kvalitní.
Bezpečnost AI a etika v éře generativní AI
- AI halucinuje — tvrdí nepravdy se sebejistotou. Čím důležitější informace, tím důležitější ji ověřit z nezávislého zdroje
- Nikdy nesdílejte s AI hesla, finanční údaje, rodná čísla nebo citlivé osobní informace — anonymizujte data předem
- AI není lékař, právník ani finanční poradce — v důležitých věcech se poraďte se skutečným odborníkem
- Odpovědi AI mohou obsahovat předsudky zděděné z trénovacích dat — nepředpokládejte neutralitu ani objektivitu
- AI umí generovat realistické falešné obrázky, zvuk i video — buďte kritičtí k online obsahu a ověřujte neobvyklé žádosti jiným kanálem
Gratulujeme!
Dokončili jste AI Start!
Doporučujeme jako další
Základní AI dovednosti