AI ve vzdělávání: co si vzít z vize šéfky CNI

Umělá inteligence ve vzdělávání a rozvoji dovednostíBy 3L3C

AI ve vzdělávání není jen o nástroji. Vezměte si z vize CNI praktické kroky pro personalizaci výuky, správu dat i bezpečné zavádění AI.

AI ve vzdělávánídigitální transformaceknihovnyedtech strategiekyberbezpečnostpersonalizace učení
Share:

Featured image for AI ve vzdělávání: co si vzít z vize šéfky CNI

AI ve vzdělávání: co si vzít z vize šéfky CNI

V prosinci 2025 je jedna věc jasná: AI ve vzdělávání už není „pilotní projekt“ pro pár nadšenců, ale téma, které řeší vedení univerzit, knihoven, IT oddělení i vydavatelů. A právě proto stojí za pozornost rozhovor s Kate Zwaard, novou výkonnou ředitelkou Coalition for Networked Information (CNI) – komunity, která dlouhodobě propojuje technologie, výzkum a digitální informace.

Zwaard mluví o AI, centralizaci a kyberbezpečnosti ne jako o módních slovech, ale jako o konkrétních napětích, která se promítají do každodenní reality institucí. A pokud pracujete ve vzdělávání (L&D, univerzita, knihovna, edtech), její pohled je užitečný i u nás: ukazuje, proč je „síť“ hlavně o lidech, standardech a důvěře – a jak na tom postavit AI, která opravdu pomáhá učit se.

CNI jako „síť lidí“: proč je to pro AI ve vzdělávání klíčové

Hlavní pointa: AI v institucích nevyhraje ten, kdo koupí nejdražší nástroj, ale ten, kdo zvládne spolupráci napříč rolemi a nastaví společná pravidla.

Zwaard popisuje CNI jako „komunitu, která ji profesně vychovala“. To není sentiment. Je to připomínka, že technologické změny ve vzdělávání se dějí v ekosystému: knihovny, IT, pedagogové, výzkumníci, právníci, nákup, vydavatelé. Když každý tahá jinam, vznikne typický scénář:

  • AI nástroj se nasadí „shora“ bez podpory učitelů.
  • Učitelé si hledají vlastní cesty (často mimo schválené platformy).
  • Knihovna a IT řeší licenční, datové a bezpečnostní dopady až ex post.

Zward to říká jednoduše: „Síť“ nejsou jen počítače – jsou to lidé, kteří spolu vytvářejí open source, standardy a sdílí úspěchy i selhání. A to přesně potřebuje i AI ve vzdělávání.

Co si z toho odnést pro školu, univerzitu nebo firmu

Pokud chcete, aby AI ve vzdělávání nebyla chaos, zaveďte „síť“ i interně:

  1. AI rada/working group (knihovna + IT + pedagog + právník + DPO + zástupce studentů/L&D).
  2. Společný slovník: co znamená „asistent“, „tutor“, „analytika“, „personalizace“, „citlivá data“.
  3. Pravidla pro experimenty: jak rychle testovat, ale zároveň měřit dopady (na učení, férovost, bezpečnost).

Jedna věta, která se mi v praxi osvědčila: „Nejdřív dohoda o datech a odpovědnostech, pak teprve nástroj.“

AI a knihovny: lidsky orientovaný hlas, který chybí

Hlavní pointa: Knihovny nejsou „oddělení půjčování“, ale instituce důvěry – a v době AI umí držet etickou a lidskou linku.

Zwaard zdůrazňuje, že knihovny mohou být v AI debatě hlasem, který je human-centered, etický, ale současně se změny nebojí. To je důležité: ve vzdělávání často sklouzneme do dvou extrémů – buď nekritické nadšení, nebo úplný zákaz.

Knihovny (a širší „informační profese“) jsou zvyklé řešit to, co AI teď bolestivě odkryla:

  • Původ a kvalita zdrojů (co je důvěryhodné, co je halucinace).
  • Citace a dohledatelnost (kde se vzala odpověď a jak ji ověřit).
  • Práva a licence (co smím použít k výuce, co smím vložit do modelu, co nesmím).

Praktický model: „AI gramotnost“ jako společný předmět

V rámci série Umělá inteligence ve vzdělávání a rozvoji dovedností se opakovaně ukazuje, že největší návratnost má AI gramotnost (AI literacy) pro studenty i zaměstnance.

Zkuste to postavit jako spolugaranci knihovny + pedagogického centra/L&D:

  • Jak psát prompty pro učení (ne pro opisování).
  • Jak kontrolovat fakta a zdroje.
  • Jak citovat použití AI (a kdy je to nutné).
  • Jak chránit osobní a institucionální data.

Tohle je „měkké“, ale dopad je tvrdý: méně průšvihů, lepší kvalita výstupů a rychlejší adaptace učitelů.

Digitalizace jako předstupeň personalizovaného učení

Hlavní pointa: Bez dobré digitální infrastruktury a správy informací personalizace výuky pomocí AI nevznikne – nebo bude drahá a nespolehlivá.

Zwaard přichází z prostředí velké paměťové instituce, kde vedla digitální transformaci a strategii. To je relevantní i pro vzdělávání: personalizované vzdělávání stojí na tom, že dokážete pracovat s obsahem a daty systematicky.

V praxi to znamená:

  • Metadata: víte, co je v jakém kurzu, s jakými výstupy učení, v jaké verzi.
  • Správa znalostí: kde je „pravda“ (sylabus, policy, metodika), aby AI nenaučila lidi zastaralé postupy.
  • Obsahové standardy: aby šel obsah znovu použít napříč předměty a rolemi.

Mini case: AI tutor funguje jen tam, kde je „pořádek v materiálech“

Instituce často chtějí „AI tutora“ do LMS. Realita: pokud jsou materiály rozházené v PDF, prezentacích, e-mailech a různých discích, AI odpovídá nepřesně a učitelé ztratí důvěru.

Lepší pořadí kroků:

  1. Vybrat 1–2 kurzy s kvalitní strukturou.
  2. Udělat content audit (co je aktuální, co je duplicita, co je citlivé).
  3. Nastavit pravidla pro „zdroje pravdy“.
  4. Teprve pak stavět AI asistenta nad ověřeným korpusem.

Výsledek? Menší pilot, ale vyšší šance na rozšíření.

Centralizace vs. autonomie: největší třenice při zavádění AI

Hlavní pointa: Centralizace šetří náklady a zvyšuje bezpečnost, ale může udusit inovaci. Vyhrává „federovaný“ model.

Zwaard zmiňuje centralizaci jako velké téma, které dopadá na „centra výpočetní a informační práce“ jako knihovny. Ve vzdělávání se to překlápí do otázky: má mít instituce jeden centrální AI nástroj, nebo nechat týmy volit si vlastní?

Moje zkušenost: extrémy nefungují.

  • Čistá centralizace: jeden nástroj pro všechny, pomalé schvalování, frustrace a obcházení pravidel.
  • Čistá autonomie: každý používá něco, data a smlouvy jsou nekontrolované, bezpečnostní rizika rostou.

Doporučení: federovaný AI stack

Federovaný přístup kombinuje kontrolu a flexibilitu:

  • Centrálně: bezpečnostní standardy, smlouvy, schválené kategorie nástrojů, pravidla práce s daty.
  • Lokálně: výběr konkrétních aplikací pro obory, metodiky pro výuku, experimenty.

Prakticky to může vypadat takto:

  • 1–2 schválené platformy pro generativní AI (bez posílání citlivých dat).
  • Knihovna poskytuje ověřené datové balíčky / zdroje.
  • Pedagogické centrum/L&D dělá šablony aktivit (např. „AI jako oponent“, „AI jako testovací student“).
  • IT drží dohled nad přístupy, logy a incidenty.

Kyberbezpečnost a AI: „permanentní téma“ s novými pastmi

Hlavní pointa: Největší riziko u AI ve vzdělávání nejsou jen modely, ale lidé a procesy kolem nich.

Zward říká, že kyberbezpečnost je „perennial issue“ – věčné téma. U AI se k tomu přidávají specifické problémy:

  • Únik dat přes prompty (studenti i učitelé vloží do AI osobní údaje nebo interní dokumenty).
  • Shadow AI (používání neschválených nástrojů mimo dohled instituce).
  • Otrava znalostní báze (když se do interního „AI vyhledávání“ dostanou neověřené nebo škodlivé dokumenty).

Jednoduchý bezpečnostní checklist pro vzdělávací instituci

  • Klasifikace dat: co nikdy nesmí do veřejných AI nástrojů (osobní údaje, hodnocení, zdravotní info, smlouvy).
  • Školení v mikro-návycích: co psát/nepsat do promptu, jak anonymizovat.
  • Schválené scénáře: AI pro tvorbu kvízů, rubrik, shrnutí článků; opatrně u hodnocení.
  • Incident proces: kam hlásit problém, kdo rozhoduje, jak rychle reagovat.

Tady se vyplatí přísnost. Ne moralizování, ale jasná pravidla, která lidem šetří čas.

Otázky, které si lidé často kladou (a stručné odpovědi)

Může AI personalizovat výuku bez zásahu učitele? Ne dobře. AI umí škálovat podporu, ale učitel určuje cíle, hranice a způsob ověřování.

Má smysl budovat vlastní model? Většině institucí se vyplatí spíš dobře spravovaný obsah + bezpečný přístup k modelům než vlastní trénování.

Kde začít, když je organizace rozdělená? Začněte spoluprací knihovna–IT–pedagogika nad jedním konkrétním případem užití (např. AI asistent pro první ročník).

Co si odnést do roku 2026: AI je „koalice“, ne produkt

Z rozhovoru s Kate Zwaard mi zůstává jedna nosná myšlenka: technologie se mění, ale instituce drží pohromadě hodnoty a dohody. AI ve vzdělávání bude úspěšná tam, kde se spojí informační profese (knihovny), IT a pedagogická praxe do funkční koalice.

Pokud chcete posunout personalizované vzdělávání, adaptivní kurzy nebo podporu rozvoje dovedností, netlačte nejdřív na nákup. Tlačte na jasná pravidla práce s informacemi, bezpečnost a společný jazyk napříč týmy.

Chcete z AI udělat pomocníka pro výuku, ne zdroj sporů? Napište si jedinou větu a dejte ji na první stránku interní AI strategie: „Síť není software. Síť jsou lidé, kteří si důvěřují.“