Článek 4 EU AI Act vyžaduje, aby organizace nasazující AI systémy zajistily „dostatečnou úroveň AI gramotnosti" svých zaměstnanců. Jedná se o přelomové ustanovení — poprvé velký regulační rámec učinil porozumění AI právní povinností, nikoliv jen příjemným bonusem.
Problém je však v tom, že nikdo se neshodne na tom, co „dostatečná AI gramotnost" vlastně znamená.
Mezera v regulaci
Většina diskusí o souladu se zaměřuje na technické požadavky — hodnocení rizik, postupy shody, dokumentaci. To je důležité. Ale zcela se tím pomíjí lidská vrstva.
Hodnocení rizik je jen tak dobré, jak dobrý je člověk, který ho provádí. Postup shody má smysl pouze tehdy, pokud lidé, kteří ho dodržují, chápou, proč je každý krok důležitý. Dokumentace je pouhá formalita, pokud ji nikdo nečte se skutečným porozuměním.
Co AI gramotnost skutečně vyžaduje
V Alesvia Proof definujeme AI gramotnost prostřednictvím tří vrstev:
1. Konceptuální porozumění — Jak AI systémy rozhodují? Jaká mají omezení? Kde předvídatelně selhávají?
2. Kontextuální úsudek — Kde bych měl/a ve své konkrétní roli a oboru důvěřovat výstupům AI a kde bych měl/a uplatnit lidský dohled?
3. Etické povědomí — Jaké jsou společenské dopady AI systémů, se kterými pracuji? Kdo z nich těží, komu škodí a jaké mocenské dynamiky se uplatňují?
Většina „AI školení" končí u první vrstvy. Naučí zaměstnance, co je neuronová síť. To je nutné, ale naprosto nedostačující.
Cesta vpřed
Organizace se musí posunout za rámec školení „na odškrtnutí". AI gramotnost není jednorázová certifikace — je to průběžná praxe, podobně jako povědomí o kybernetické bezpečnosti.
Vyvíjíme kurikula, která začleňují AI gramotnost do stávajícího profesního rozvoje, místo aby se s ní zacházelo jako se samostatným, odpojeným požadavkem. Cílem jsou profesionálové, kteří dokáží kriticky přemýšlet o AI v kontextu své skutečné práce.
EU AI Act nám dal mandát. Nyní potřebujeme vybudovat infrastrukturu, abychom ho naplnili.