Bezpečnostní rizika AI ve vývoji: co váš tým pravděpodobně dělá špatně
Přejít na sekci
Na školení se ptám: 'Kdo z vás někdy poslal do ChatGPT kus produkčního kódu?' Většina rukou nahoře. 'Kdo z vás zkontroloval, jestli v tom kódu nebyl API klíč?' Žádná ruka.
Tohle není strašení — tohle je realita. Vývojáři posílají citlivá data do AI nástrojů každý den. Ne ze zlých úmyslů, ale z pohodlnosti a nedostatku pravidel. A to je problém, který musíte řešit.
Reálná rizika — ne teoretická
- Únik citlivých dat v promptech — API klíče, connection stringy, PII zákazníků
- AI-generovaný kód s bezpečnostními zranitelnostmi — SQL injection, XSS, insecure deserialization
- Závislost na AI bez verifikace — 'AI to napsala, tak to bude bezpečně'
- Sdílení proprietárního kódu s třetími stranami — bez enterprise plánu data mohou být použita k trénování
- Prompt injection — útočník může manipulovat AI výstup přes vstupní data
Únik dat v promptech
Nejčastější riziko. Vývojář debugguje produkci, zkopíruje celé logy včetně connection stringu a customer emailů do ChatGPT. Bez enterprise plánu se tato data mohou stát součástí trénovacích dat. I s enterprise plánem — data opouštějí váš perimetr.
# Spatne — cele logy vcetne secrets:
ERROR at PaymentService:
DB_URL=postgresql://admin:P@ssw0rd@db.prod:5432
Customer: jan.novak@firma.cz
Card: **** **** **** 4242
# Spravne — anonymizovane a bez secrets:
ERROR at PaymentService:
DB connection failed at line 42
Customer: [REDACTED]
Error: ECONNREFUSEDAI-generovaný kód s bezpečnostními chybami
AI generuje kód, který vypadá správně, ale může mít subtilní bezpečnostní zranitelnosti. SQL injection přes string concatenation místo parametrizovaných queries. XSS přes neescapovaný uživatelský vstup. Hardcoded secrets v configu. AI nepřidává bezpečnostní opatření, pokud si o ně explicitně neřeknete.
// AI casto generuje tohle (SPATNE):
const query = `SELECT * FROM users
WHERE email = '${email}'`; // SQL injection!
// Misto toho chcete (SPRAVNE):
const result = await db.query(
'SELECT * FROM users WHERE email = $1',
[email]
);AI-generovaný kód NENÍ automaticky bezpečný. Prochází stejným review jako ruční kód. Auth, platby a data mutations vždy kontroluje člověk. Bez výjimky.
Pět jednoduchých pravidel
Nemusíte mít 20stránkový security dokument. Těchto pět pravidel pokryje 90 % rizik:
- 1. Nikdy nepaste kód s hardcoded credentials — před pastingem všechno nahraďte placeholders
- 2. AI-generovaný kód prochází stejným review jako ruční — žádné 'AI to napsala, tak je to OK'
- 3. Auth, platby a data mutations vždy kontroluje člověk — to je červená linka
- 4. Používejte enterprise plány s data retention policies — data nesmí být použita k trénování
- 5. Přidejte pre-commit hook na detekci secrets — gitleaks, detect-secrets, trufflehog
Praktické kroky k zabezpečení
Pre-commit hook na secrets
Nainstalujte nástroj jako gitleaks nebo detect-secrets jako pre-commit hook. Každý commit se automaticky zkontroluje na API klíče, passwords, connection stringy. Tohle chytí chyby, které review neodhalí.
# .pre-commit-config.yaml
repos:
- repo: https://github.com/gitleaks/gitleaks
rev: v8.18.0
hooks:
- id: gitleaks
# Instalace:
pip install pre-commit
pre-commit installEnterprise plány pro citlivé projekty
Copilot Business/Enterprise, Claude Team/Enterprise, ChatGPT Team/Enterprise — všechny garantují, že data nejsou použita k trénování modelů. Pro projekty s klientským kódem nebo regulovanými daty je tohle minimum.
Security review checklist pro AI kód
# Security review checklist pro AI-generovany kod:
[ ] Vsechny SQL queries jsou parametrizovane?
[ ] Uzivatelsky vstup je sanitizovany pred renderem?
[ ] Zadne hardcoded secrets (API klice, hesla)?
[ ] Auth kontroly na vsech chranenye endpointech?
[ ] Rate limiting na verejnych API?
[ ] Input validace na vsech vstupech?
[ ] Error messages neodhaluji interni detaily?
[ ] CORS nastaveni jsou spravna?Jak to říct týmu
Nestrašíte lidi. Řeknete: 'AI je mocný nástroj. Jako každý mocný nástroj potřebuje pravidla. Tady jsou naše.' Jednoduchý cheat sheet na jednu A4 udělá víc než dvacetminutová přednáška o compliance.
Bezpečnost není o zakazování AI. Je o tom, používat ji správně. Týmy s jasnými pravidly používají AI víc a bezpečněji než týmy bez nich.
Nejdůležitější: pravidla musí být jednoduchá, přístupná (v repo README nebo CLAUDE.md), a revidovaná pravidelně. Složitá pravidla nikdo nečte. Jednoduchá pravidla lidé dodržují.
Karel Čech
Vývojář a AI konzultant. Pomáhám technickým týmům zavést AI do každodenní práce — od workshopů po dlouhodobé strategie.
LinkedIn →Buďte o krok napřed s AI
Praktické tipy k AI pro vývojové týmy. Žádný spam, odhlášení kdykoliv.
Zaujal vás článek? Ponořte se hlouběji:
Související články
AI guardrails pro dev tým: praktický framework na jedno odpoledne
Váš tým používá AI. Ale má pravidla? Bez nich se lidé bojí experimentovat. Tady je framework, který zavedete za odpoledne a který zrychlí adopci 3-4x.
AI a technický dluh: paradox, který definuje rok 2026
AI může 10x zrychlit vývoj — ale taky 10x zrychlit tvorbu technického dluhu. 75 % firem už má střední až vysokou úroveň dluhu kvůli AI. Jak se z toho dostat?
Prompt engineering pro vývojáře: průvodce, který vám ušetří hodiny denně
Rozdíl mezi vývojářem, který AI používá efektivně, a tím, kdo ji zavrhl, je často jeden lepší prompt. Tady je jak psát prompty, které fungují na první pokus.
Jdeme na to?
Nezávazná 30minutová konzultace — zjistíme, kde AI může váš tým posunout nejvíc.
Domluvit konzultaci zdarma