Řízení znalostí je nejrychlejší cesta k bezpečnější AI ve škole. Získejte konzistentní odpovědi, lepší personalizaci a pevné hranice pro data.

Řízení znalostí pro bezpečnější AI ve školství
Nejčastější důvod, proč institucionální AI „nefunguje“, není špatný model. Je to špatná znalostní základna: neaktuální dokumenty, rozpory mezi webem a praxí, nejasné výjimky v pravidlech a data roztroušená po systémech. Výsledek pak vypadá takto: chatbot jednou poradí správně, podruhé si vymyslí odpověď, potřetí zveřejní něco, co vůbec neměl vidět. Důvěra studentů i zaměstnanců je pryč rychleji, než stihnete napsat „prosím upřesni dotaz“.
V prosinci 2025 se školy typicky nacházejí ve stejné fázi: AI už někde běží (často v pilotu), tlak na podporu studia i administrativy roste a zároveň je tu nervozita kolem soukromí, bezpečnosti a konzistence odpovědí. Právě tady dává největší smysl spojit dvě disciplíny, které se ve školství dlouho braly odděleně: umělou inteligenci ve vzdělávání a rozvoji dovedností a řízení znalostí (knowledge management, KM).
Moje zkušenost je jednoduchá: když chcete bezpečnou AI, nezačínejte modelem. Začněte tím, co AI smí vědět, odkud to ví a kdo ručí za správnost.
Proč AI ve škole selhává: data nejsou znalosti
AI nástroje jsou „tak dobré“, jak dobré jsou jejich vstupy. Pokud do nich nasypete polotovary, dostanete polotovar. A pokud do nich nasypete chaos, dostanete chaos – jen hezky formulovaný.
V praxi se potkávají tři typické problémy:
- Neaktuálnost: stipendijní podmínky, studijní řády, pravidla pro uznávání předmětů nebo interní HR procesy se mění. Dokumenty ale často ne. AI pak radí podle verze z minulého roku.
- Neúplný kontext: politika existuje, ale chybí „živá“ praxe – výjimky, návaznosti, odpovědnosti, kontakty, skutečné termíny. To je přesně ten typ informací, který lidé znají, ale v dokumentu nebývá.
- Rozpor mezi zdroji: web fakulty říká A, intranet říká B, studijní oddělení postupuje C. AI pak odpověď „zprůměruje“ nebo si vybere náhodně.
Z pohledu personalizovaného vzdělávání a podpory studujících to má nepříjemný dopad: AI je konzistentně nekonzistentní. Jednou pomůže, jindy uškodí. A škola pak musí investovat více času do oprav a vysvětlování, než kolik ušetřila automatizací.
Co je „řízení znalostí pro bezpečnější AI“ v praxi
Řízení znalostí (KM) není jen knihovna dokumentů. Pro bezpečnější AI ve školství je to sada procesů, jak:
- Zmapovat institucionální znalost (co škola „ví“: pravidla, procesy, služby, kontakty, slovník pojmů, hodnoty)
- Zajistit kvalitu (kdo je vlastník obsahu, jak často se reviduje, jak se řeší konflikty)
- Nastavit hranice přístupu (co AI smí vidět, co nikdy, a co jen v určité roli)
- Průběžně ladit (měřit chybovost, doplňovat kontext, učit se z dotazů)
Klíčová věta, kterou se vyplatí si zarámovat:
Bezpečná AI není ta, která ví všechno. Bezpečná AI je ta, která ví správné věci a umí říct „tohle nevím“.
„Aby nás AI znala“ vs. „aby nás znala až moc“
Aby AI dobře pomáhala studentům a zaměstnancům, musí znát kontext školy: studijní programy, typické životní situace (přerušení, uznávání praxe, zahraniční mobilita), podpůrné služby, interní workflow.
Jenže když AI dostane přístup tam, kam nemá, přichází reálná rizika:
- Únik osobních údajů (studijní výsledky, sociální stipendia, zdravotní znevýhodnění)
- Neoprávněné „shrnutí“ citlivých případů (disciplinární řízení, personální záležitosti)
- Zneužití interních instrukcí (bezpečnostní postupy, administrátorská nastavení)
KM je praktický způsob, jak to vybalancovat: AI může být užitečná, aniž by měla přístup k „zakázaným“ částem organizace.
Příběh z praxe: chatbot a chybějící kontext
Na jedné velké univerzitě v USA (UW–Madison) řešili problém, který je až bolestně známý i v českém prostředí: když AI chatbot radí v oblastech typu finanční podpora, studijní plán nebo interní politiky, musí být odpověď nejen správná, ale i konzistentní.
Zvolili přístup, který dává smysl i u nás: kurátorství znalostí. Nejde jen o „nahrání policy dokumentů“ do AI, ale o zapojení sítě lidí, kteří tu problematiku skutečně žijí: studijní referentky, právní oddělení, HR, metodici, garanti programů, IT bezpečnost.
Během pilotů (například pro dotazy k nemocenské nebo grantům) se ukázalo něco podstatného: i když máte velké množství dokumentů, často chybí „ten kousek“, který rozhoduje o správné odpovědi. Typicky:
- kdy se pravidlo používá a kdy ne,
- kdo schvaluje výjimku,
- jaký je doporučený postup krok za krokem,
- jaký je správný kontakt v konkrétní situaci.
To je přesně důvod, proč AI projekty ve školství potřebují KM: znalost není totéž co dokument.
Jak začít: 6 kroků, které zvládne i menší instituce
Začít se dá bez obří transformace. Důležité je postupovat tak, aby výstupy byly měřitelné a bezpečné.
1) Založte AI governance, ale udržte ji malou a akční
Potřebujete skupinu, která rozhoduje o prioritách, rizicích a pravidlech používání AI. Ne deset schůzek měsíčně, ale jasné kompetence.
Doporučené role:
- garant studijních služeb (student experience),
- zástupce IT (architektura + provoz),
- bezpečnost / DPO,
- zástupce HR nebo provozu,
- „vlastníci“ klíčových oblastí (stipendia, přijímačky, studijní řád).
2) Udělejte klasifikaci citlivosti informací (bez toho se nehnete)
AI potřebuje hranice. Nejrychlejší je definovat 3–5 úrovní citlivosti, například:
- Veřejné (web, veřejné směrnice)
- Interní (procesní návody, interní kontakty)
- Důvěrné (interní rozhodnutí, neveřejné metodiky)
- Osobní údaje (data o studentech a zaměstnancích)
- Vysoce citlivé (zdravotní, disciplinární, bezpečnostní detaily)
Pak se dá říct: „Chatbot pro studenty smí čerpat z úrovní 1–2, na úroveň 3 jen po schválení, 4–5 nikdy.“ To je praktické a srozumitelné.
3) Zmapujte „nejdražší“ dotazy (tam je návratnost nejrychlejší)
Vezměte 30 dní tiketů, e-mailů a nejčastějších dotazů na studijní oddělení. Seřaďte je podle:
- četnosti,
- rizikovosti (co se stane, když odpověď bude špatně),
- časové náročnosti.
AI nedávejte hned na „nejcitlivější“ věci. Začněte tam, kde je největší přínos a zároveň nízké riziko.
4) Vytvořte „minimální znalostní balíček“ pro první use-case
Pro první chatbot nebo asistenta si připravte:
- slovník pojmů (např. „přerušení“, „opakování“, „ISP“, „poplatky“),
- 20–50 nejdůležitějších Q&A s ověřenými odpověďmi,
- mapu procesů (kroky + odpovědnosti),
- seznam zdrojů pravdy (který dokument je autorita).
Tohle bývá efektivnější než nahrát „všechno, co máme“.
5) Nastavte mechanismus validace: kdo ručí za odpověď
Bez vlastnictví obsahu se KM rozpadne. Každá oblast musí mít:
- vlastníka (odpovědná osoba/oddělení),
- frekvenci revize (např. 1× za semestr),
- postup změn (co se stane, když se změní pravidla uprostřed semestru).
A u AI navíc:
- logování dotazů (bez osobních údajů, kde to jde),
- proces pro hlášení špatné odpovědi,
- rychlou opravu znalostní báze.
6) Omezte AI přístup technicky, ne jen „pravidly v dokumentu“
Bezpečnost stojí na technických opatřeních: role-based access, oddělené indexy znalostí, audit, ochrana před exportem citlivých dat.
Praktická zásada: AI má mít přístup jen k tomu, co je potřeba pro konkrétní scénář. Ne „když už to máme, tak to připojíme“.
Jak KM přímo podporuje personalizované vzdělávání a rozvoj dovedností
Tahle část je často podceněná. Řízení znalostí není jen obrana proti průšvihům; je to také základ pro to, aby AI ve vzdělávání dávala smysl.
- Personalizované studijní doporučení: když jsou pravidla, návaznosti předmětů a kapacity konzistentně popsané, AI může navrhovat reálné cesty studiem.
- Podpora dovedností: kurzy, mikrocertifikáty, stáže a projekty se často spravují odděleně. KM pomůže sjednotit katalogy a slovník kompetencí.
- Analytika studijní úspěšnosti: pokud AI pracuje s nekvalitními daty, „predikce“ jsou jen hezky znějící odhady. KM a správa dat nastaví, co je relevantní a spolehlivé.
Jeden z nejpraktičtějších dopadů: když AI narazí na hraniční situaci, může studenta správně přesměrovat (na studijní oddělení, kariérko, poradnu) místo toho, aby si „domyslela“ odpověď.
Mini-FAQ: otázky, které řeší skoro každá škola
Máme začít AI chatbotem, nebo nejdřív s dokumentací?
Začněte use-casem a u něj vytvořte minimální dokumentaci. Celoplošný úklid dokumentů je nekonečný projekt. AI vás naopak rychle přinutí pojmenovat mezery.
Jak poznáme, že je naše znalostní báze „dost dobrá“?
Když umíte u 80–90 % top dotazů doložit:
- odkud odpověď pochází,
- kdo ji schválil,
- kdy byla naposledy revidována.
Co je největší bezpečnostní chyba u AI ve škole?
Pustit AI na interní sdílené disky „ať si to přečte“. Bez klasifikace citlivosti a řízení přístupu je to recept na incident.
Co si odnést a co udělat už v lednu
Bezpečnější AI ve školství nevznikne přikoupením další licence. Vznikne tím, že škola postaví řiditelný a ověřitelný systém znalostí, který AI používá – a zároveň ho nemůže zneužít.
Pokud chcete reálný posun během 30 dní, doporučuju tento plán:
- vyberte jeden scénář s vysokou četností (např. poplatky, přerušení, stipendia),
- sepište top 30 dotazů a schvalte „správné odpovědi“,
- zaveďte 3–5 úrovní citlivosti dat,
- určete vlastníka obsahu a revizní rytmus,
- nastavte AI tak, aby uměla říct „nevím“ a předat kontakt.
Tahle série „Umělá inteligence ve vzdělávání a rozvoji dovedností“ stojí na jedné myšlence: AI má školám pomáhat učit lépe a spravovat věci jednodušeji. Řízení znalostí je praktický způsob, jak toho dosáhnout bez toho, aby se z podpory studentů stal bezpečnostní problém.
A teď ta nepohodlná, ale užitečná otázka: kdybyste dnes pustili AI odpovídat na stipendia a studijní pravidla, máte jistotu, že čerpá z jediné „pravdy“?