Řízení znalostí pro bezpečnější AI ve školství

Umělá inteligence ve vzdělávání a rozvoji dovednostíBy 3L3C

Řízení znalostí je nejrychlejší cesta k bezpečnější AI ve škole. Získejte konzistentní odpovědi, lepší personalizaci a pevné hranice pro data.

AI ve školstvíknowledge managementAI governancebezpečnost datchatbotdata governance
Share:

Featured image for Řízení znalostí pro bezpečnější AI ve školství

Řízení znalostí pro bezpečnější AI ve školství

Nejčastější důvod, proč institucionální AI „nefunguje“, není špatný model. Je to špatná znalostní základna: neaktuální dokumenty, rozpory mezi webem a praxí, nejasné výjimky v pravidlech a data roztroušená po systémech. Výsledek pak vypadá takto: chatbot jednou poradí správně, podruhé si vymyslí odpověď, potřetí zveřejní něco, co vůbec neměl vidět. Důvěra studentů i zaměstnanců je pryč rychleji, než stihnete napsat „prosím upřesni dotaz“.

V prosinci 2025 se školy typicky nacházejí ve stejné fázi: AI už někde běží (často v pilotu), tlak na podporu studia i administrativy roste a zároveň je tu nervozita kolem soukromí, bezpečnosti a konzistence odpovědí. Právě tady dává největší smysl spojit dvě disciplíny, které se ve školství dlouho braly odděleně: umělou inteligenci ve vzdělávání a rozvoji dovedností a řízení znalostí (knowledge management, KM).

Moje zkušenost je jednoduchá: když chcete bezpečnou AI, nezačínejte modelem. Začněte tím, co AI smí vědět, odkud to ví a kdo ručí za správnost.

Proč AI ve škole selhává: data nejsou znalosti

AI nástroje jsou „tak dobré“, jak dobré jsou jejich vstupy. Pokud do nich nasypete polotovary, dostanete polotovar. A pokud do nich nasypete chaos, dostanete chaos – jen hezky formulovaný.

V praxi se potkávají tři typické problémy:

  • Neaktuálnost: stipendijní podmínky, studijní řády, pravidla pro uznávání předmětů nebo interní HR procesy se mění. Dokumenty ale často ne. AI pak radí podle verze z minulého roku.
  • Neúplný kontext: politika existuje, ale chybí „živá“ praxe – výjimky, návaznosti, odpovědnosti, kontakty, skutečné termíny. To je přesně ten typ informací, který lidé znají, ale v dokumentu nebývá.
  • Rozpor mezi zdroji: web fakulty říká A, intranet říká B, studijní oddělení postupuje C. AI pak odpověď „zprůměruje“ nebo si vybere náhodně.

Z pohledu personalizovaného vzdělávání a podpory studujících to má nepříjemný dopad: AI je konzistentně nekonzistentní. Jednou pomůže, jindy uškodí. A škola pak musí investovat více času do oprav a vysvětlování, než kolik ušetřila automatizací.

Co je „řízení znalostí pro bezpečnější AI“ v praxi

Řízení znalostí (KM) není jen knihovna dokumentů. Pro bezpečnější AI ve školství je to sada procesů, jak:

  1. Zmapovat institucionální znalost (co škola „ví“: pravidla, procesy, služby, kontakty, slovník pojmů, hodnoty)
  2. Zajistit kvalitu (kdo je vlastník obsahu, jak často se reviduje, jak se řeší konflikty)
  3. Nastavit hranice přístupu (co AI smí vidět, co nikdy, a co jen v určité roli)
  4. Průběžně ladit (měřit chybovost, doplňovat kontext, učit se z dotazů)

Klíčová věta, kterou se vyplatí si zarámovat:

Bezpečná AI není ta, která ví všechno. Bezpečná AI je ta, která ví správné věci a umí říct „tohle nevím“.

„Aby nás AI znala“ vs. „aby nás znala až moc“

Aby AI dobře pomáhala studentům a zaměstnancům, musí znát kontext školy: studijní programy, typické životní situace (přerušení, uznávání praxe, zahraniční mobilita), podpůrné služby, interní workflow.

Jenže když AI dostane přístup tam, kam nemá, přichází reálná rizika:

  • Únik osobních údajů (studijní výsledky, sociální stipendia, zdravotní znevýhodnění)
  • Neoprávněné „shrnutí“ citlivých případů (disciplinární řízení, personální záležitosti)
  • Zneužití interních instrukcí (bezpečnostní postupy, administrátorská nastavení)

KM je praktický způsob, jak to vybalancovat: AI může být užitečná, aniž by měla přístup k „zakázaným“ částem organizace.

Příběh z praxe: chatbot a chybějící kontext

Na jedné velké univerzitě v USA (UW–Madison) řešili problém, který je až bolestně známý i v českém prostředí: když AI chatbot radí v oblastech typu finanční podpora, studijní plán nebo interní politiky, musí být odpověď nejen správná, ale i konzistentní.

Zvolili přístup, který dává smysl i u nás: kurátorství znalostí. Nejde jen o „nahrání policy dokumentů“ do AI, ale o zapojení sítě lidí, kteří tu problematiku skutečně žijí: studijní referentky, právní oddělení, HR, metodici, garanti programů, IT bezpečnost.

Během pilotů (například pro dotazy k nemocenské nebo grantům) se ukázalo něco podstatného: i když máte velké množství dokumentů, často chybí „ten kousek“, který rozhoduje o správné odpovědi. Typicky:

  • kdy se pravidlo používá a kdy ne,
  • kdo schvaluje výjimku,
  • jaký je doporučený postup krok za krokem,
  • jaký je správný kontakt v konkrétní situaci.

To je přesně důvod, proč AI projekty ve školství potřebují KM: znalost není totéž co dokument.

Jak začít: 6 kroků, které zvládne i menší instituce

Začít se dá bez obří transformace. Důležité je postupovat tak, aby výstupy byly měřitelné a bezpečné.

1) Založte AI governance, ale udržte ji malou a akční

Potřebujete skupinu, která rozhoduje o prioritách, rizicích a pravidlech používání AI. Ne deset schůzek měsíčně, ale jasné kompetence.

Doporučené role:

  • garant studijních služeb (student experience),
  • zástupce IT (architektura + provoz),
  • bezpečnost / DPO,
  • zástupce HR nebo provozu,
  • „vlastníci“ klíčových oblastí (stipendia, přijímačky, studijní řád).

2) Udělejte klasifikaci citlivosti informací (bez toho se nehnete)

AI potřebuje hranice. Nejrychlejší je definovat 3–5 úrovní citlivosti, například:

  1. Veřejné (web, veřejné směrnice)
  2. Interní (procesní návody, interní kontakty)
  3. Důvěrné (interní rozhodnutí, neveřejné metodiky)
  4. Osobní údaje (data o studentech a zaměstnancích)
  5. Vysoce citlivé (zdravotní, disciplinární, bezpečnostní detaily)

Pak se dá říct: „Chatbot pro studenty smí čerpat z úrovní 1–2, na úroveň 3 jen po schválení, 4–5 nikdy.“ To je praktické a srozumitelné.

3) Zmapujte „nejdražší“ dotazy (tam je návratnost nejrychlejší)

Vezměte 30 dní tiketů, e-mailů a nejčastějších dotazů na studijní oddělení. Seřaďte je podle:

  • četnosti,
  • rizikovosti (co se stane, když odpověď bude špatně),
  • časové náročnosti.

AI nedávejte hned na „nejcitlivější“ věci. Začněte tam, kde je největší přínos a zároveň nízké riziko.

4) Vytvořte „minimální znalostní balíček“ pro první use-case

Pro první chatbot nebo asistenta si připravte:

  • slovník pojmů (např. „přerušení“, „opakování“, „ISP“, „poplatky“),
  • 20–50 nejdůležitějších Q&A s ověřenými odpověďmi,
  • mapu procesů (kroky + odpovědnosti),
  • seznam zdrojů pravdy (který dokument je autorita).

Tohle bývá efektivnější než nahrát „všechno, co máme“.

5) Nastavte mechanismus validace: kdo ručí za odpověď

Bez vlastnictví obsahu se KM rozpadne. Každá oblast musí mít:

  • vlastníka (odpovědná osoba/oddělení),
  • frekvenci revize (např. 1× za semestr),
  • postup změn (co se stane, když se změní pravidla uprostřed semestru).

A u AI navíc:

  • logování dotazů (bez osobních údajů, kde to jde),
  • proces pro hlášení špatné odpovědi,
  • rychlou opravu znalostní báze.

6) Omezte AI přístup technicky, ne jen „pravidly v dokumentu“

Bezpečnost stojí na technických opatřeních: role-based access, oddělené indexy znalostí, audit, ochrana před exportem citlivých dat.

Praktická zásada: AI má mít přístup jen k tomu, co je potřeba pro konkrétní scénář. Ne „když už to máme, tak to připojíme“.

Jak KM přímo podporuje personalizované vzdělávání a rozvoj dovedností

Tahle část je často podceněná. Řízení znalostí není jen obrana proti průšvihům; je to také základ pro to, aby AI ve vzdělávání dávala smysl.

  • Personalizované studijní doporučení: když jsou pravidla, návaznosti předmětů a kapacity konzistentně popsané, AI může navrhovat reálné cesty studiem.
  • Podpora dovedností: kurzy, mikrocertifikáty, stáže a projekty se často spravují odděleně. KM pomůže sjednotit katalogy a slovník kompetencí.
  • Analytika studijní úspěšnosti: pokud AI pracuje s nekvalitními daty, „predikce“ jsou jen hezky znějící odhady. KM a správa dat nastaví, co je relevantní a spolehlivé.

Jeden z nejpraktičtějších dopadů: když AI narazí na hraniční situaci, může studenta správně přesměrovat (na studijní oddělení, kariérko, poradnu) místo toho, aby si „domyslela“ odpověď.

Mini-FAQ: otázky, které řeší skoro každá škola

Máme začít AI chatbotem, nebo nejdřív s dokumentací?

Začněte use-casem a u něj vytvořte minimální dokumentaci. Celoplošný úklid dokumentů je nekonečný projekt. AI vás naopak rychle přinutí pojmenovat mezery.

Jak poznáme, že je naše znalostní báze „dost dobrá“?

Když umíte u 80–90 % top dotazů doložit:

  • odkud odpověď pochází,
  • kdo ji schválil,
  • kdy byla naposledy revidována.

Co je největší bezpečnostní chyba u AI ve škole?

Pustit AI na interní sdílené disky „ať si to přečte“. Bez klasifikace citlivosti a řízení přístupu je to recept na incident.

Co si odnést a co udělat už v lednu

Bezpečnější AI ve školství nevznikne přikoupením další licence. Vznikne tím, že škola postaví řiditelný a ověřitelný systém znalostí, který AI používá – a zároveň ho nemůže zneužít.

Pokud chcete reálný posun během 30 dní, doporučuju tento plán:

  1. vyberte jeden scénář s vysokou četností (např. poplatky, přerušení, stipendia),
  2. sepište top 30 dotazů a schvalte „správné odpovědi“,
  3. zaveďte 3–5 úrovní citlivosti dat,
  4. určete vlastníka obsahu a revizní rytmus,
  5. nastavte AI tak, aby uměla říct „nevím“ a předat kontakt.

Tahle série „Umělá inteligence ve vzdělávání a rozvoji dovedností“ stojí na jedné myšlence: AI má školám pomáhat učit lépe a spravovat věci jednodušeji. Řízení znalostí je praktický způsob, jak toho dosáhnout bez toho, aby se z podpory studentů stal bezpečnostní problém.

A teď ta nepohodlná, ale užitečná otázka: kdybyste dnes pustili AI odpovídat na stipendia a studijní pravidla, máte jistotu, že čerpá z jediné „pravdy“?