Lidský faktor AI rozhoduje: strategie, data a gramotnost. Praktický 90denní plán, jak zavést AI bezpečně a s dopadem ve vzdělávání.

Lidský faktor AI na školách: data, strategie, dovednosti
Na vysokých školách se dnes AI často bere jako „další nástroj“. Realita je tvrdší: AI je změna provozu i kultury, ne jen nová funkce v LMS nebo chatbot na webu. Když se k tomu přidá tlak na efektivitu, nedostatek lidí v IT, kyberhrozby a rozpočty plánované už teď na rok 2026, je jasné, proč se v debatách o digitální transformaci čím dál víc objevuje jedno téma: lidský faktor AI.
Právě na něj upozorňuje i korporátní pohled Gartneru na výzvy, které budou nejvíc formovat práci CIO a vedení škol v roce 2026. V mém pohledu je to výborná zpráva pro každého, kdo řeší umělou inteligenci ve vzdělávání a rozvoji dovedností: nejde o to „nasadit AI“, ale naučit lidi AI používat kriticky, bezpečně a s jasným cílem. A to stojí na dvou pilířích: strategie a data.
„Lidský faktor AI“: proč rozhoduje víc než technologie
Největší rozdíl mezi školami, které z AI něco mají, a těmi ostatními, není model ani dodavatel. Je to způsob práce lidí. Pokud studenti, akademici a administrativní týmy nevědí, kdy je AI vhodná, kdy ne, jak ověřovat výstupy a jak chránit citlivá data, vzniká směs nadšení a strachu. A z ní se špatně řídí investice.
Human-centric přístup v praxi znamená tři věci:
- Kritické používání: umět posoudit spolehlivost výstupu, rozlišit fakta od pravděpodobných „doplňků“ modelu, umět si říct o zdroje a reprodukovatelný postup.
- Kreativní používání: využívat AI pro návrhy, iterace a prototypování (např. osnovy, cvičení, scénáře výuky), ale s jasným autorstvím a odpovědností.
- Bezpečné používání: chápat, co do AI smím vložit (osobní údaje, známky, zdravotní data, interní dokumenty), jaké jsou režimy ochrany a jak se liší veřejné a institucionální nástroje.
„AI je všude“ je fakt. „Každý ji umí používat dobře“ je mýtus.
V prosinci 2025 navíc školy typicky uzavírají rozpočtové a projektové plány na další rok. Pokud se AI řeší jen jako experimenty jednotlivců, začne se dřív nebo později platit dvakrát: jednou za nesladěné licence a podruhé za opravy procesů, které se měly navrhnout správně hned.
Bez dat AI nepřinese personalizované učení ani lepší rozhodování
AI bez datové připravenosti je jako výuka bez sylabu: něco se děje, ale výsledky jsou náhodné. A ve vzdělávání to bolí dvojnásob, protože cílem není jen „automatizovat“, ale zlepšit učení a rozvoj dovedností.
Tady se často láme chleba. Školy mívají:
- data rozprostřená mezi SIS/ERP, LMS, knihovními systémy, helpdeskem, CRM, excelovými evidencemi,
- různé definice stejných pojmů (kdo je „aktivní student“, co je „úspěšné absolvování“, jak počítáme retenci),
- mezery v kvalitě (duplicitní záznamy, neúplné atributy, chybějící metadata, nepopsané datové toky).
Praktický příklad: jedna definice, deset dopadů
Vezměme banální otázku: „Kolik máme aktivních studentů?“
- Studijní oddělení to může brát jako „zapsaní na semestr“.
- LMS může ukázat „přihlášení za posledních 14 dní“.
- Ekonomika může chtít „studenti s uhrazeným poplatkem“.
Jakmile na to napojíte AI pro predikci studijního rizika nebo pro personalizované doporučení podpůrných materiálů, odlišná definice změní výsledky i rozhodnutí (koho oslovíte, komu nabídnete doučování, kde posílíte kapacity).
Co znamená „datová připravenost“ pro AI ve vzdělávání
Doporučuju ji zarámovat do rychlého kontrolního seznamu:
- Kvalita: jsou klíčové atributy vyplněné a konzistentní?
- Dohledatelnost: víme, odkud data pochází a kdo za ně ručí?
- Governance: existují pravidla pro definice, přístupy, audit a životní cyklus?
- Integrace: umíme data spojit napříč systémy bez ruční alchymie?
- Soukromí: máme jasné režimy práce s osobními údaji a studijními daty?
Jakmile je tohle „aspoň slušně“ vyřešené, teprve pak začíná dávat smysl velká vlna AI pro learning analytics, adaptivní výuku a podporu studijní úspěšnosti.
Proč školy potřebují enterprise AI strategii (a ne sbírku pilotů)
Krátkodobě se dá s AI improvizovat. Dlouhodobě je to drahé a rizikové. Gartnerův důraz na enterprise přístup přesně sedí: o AI se na kampusu zajímá každý – od děkanů po helpdesk. To je signál, že je čas nastavit pravidla hry.
Dobrá AI strategie pro vysokou školu není dokument do šuplíku. Je to dohoda o tom:
- proč AI používáme (vztah k misi: výuka, výzkum, služba společnosti),
- kde má největší návratnost (nejen finanční, i studijní a provozní),
- jak budeme řídit rizika (kyberbezpečnost, ochrana dat, etika, reputace),
- kdo rozhoduje a kdo nese odpovědnost (governance, schvalování use casů, standardy).
Mapa use casů: začněte tam, kde to bolí
Pro „AI ve vzdělávání a rozvoji dovedností“ se v praxi nejčastěji vyplatí tři oblasti:
- Podpora výuky a studia
- personalizované procvičování (např. generování variant úloh),
- asistence s akademickým psaním s důrazem na citace a etiku,
- rychlá zpětná vazba u nízkorizikových úkolů (formativní hodnocení).
- Studijní úspěšnost a poradenské služby
- včasné signály rizika (na základě dat z LMS/SIS),
- chytré směrování na konzultace, studijní podporu, kariéru.
- Provozní efektivita
- helpdesk a interní znalostní báze,
- automatizace rutinních žádostí (ale se schvalováním a auditní stopou),
- sumarizace dokumentů a tvorba podkladů.
Moje zásada: první vlna AI má být měřitelná a bezpečná. Ne nutně nejambicióznější.
Rozhodněte i to, do čeho nepůjdete
Část strategie je i „ne“. Jinak se utopíte v licencích, které slibují AI ve všem: ERP, SIS, CRM, LMS… a každé má vlastní AI funkce. Výsledek připomíná staré „války portálů“, jen v agresivnější verzi: příliš mnoho asistentů, příliš málo koordinace.
AI gramotnost a datová gramotnost: dovednosti pro studenty i zaměstnance
AI gramotnost je nová základní gramotnost. Podobně jako se před lety stalo standardem umět pracovat s textovým editorem a tabulkami, teď se standardem stává umět pracovat s AI – ale odpovědně.
Gartner rozlišuje:
- datovou gramotnost: číst, psát a komunikovat o datech v kontextu instituce,
- AI gramotnost: efektivně a odpovědně používat AI v kontextu role nebo oboru.
Jak vypadá minimální „AI gramotnost“ na škole (prakticky)
Zaveďte společný základ pro všechny role (student, akademik, administrativa). Typicky 60–90 minut e-learning + krátký test:
- rozdíl mezi vyhledáváním a generováním,
- práce s promptem (zadání, omezení, formát výstupu),
- ověřování: triangulace, kontrola citací, práce s nejistotou,
- ochrana dat: co nikdy nevkládat, jak používat institucionální režimy,
- akademická integrita: co je povolené, co je plagiát, co musí být přiznané.
Pak přidejte role-based moduly:
- vyučující: design úkolů odolných vůči „copy-paste“ z AI, rubriky, zadání s procesem,
- výzkumníci: etické použití GenAI, správa dat, reprodukovatelnost,
- IT a provoz: bezpečnost, logování, integrace, vendor management.
Tohle není jednorázová akce. AI se mění rychleji než školní směrnice. Úspěšné školy počítají s průběžnou aktualizací a s komunitou praxe (interní „AI ambasadoři“).
Etika, bezpečnost a důvěra: bez nich se personalizace zvrhne
Personalizované vzdělávání pomocí AI je užitečné jen tehdy, když mu lidé věří. A důvěra se staví na transparentnosti a kontrolovatelných pravidlech.
Krátký rámec, který funguje i v českém prostředí:
- Transparentnost: student ví, kdy AI zasahuje (doporučení, zpětná vazba, hodnocení).
- Volba: kde to jde, nabídněte alternativu bez penalizace (zejména u podpůrných nástrojů).
- Odpovědnost: vždy existuje člověk, který rozhodnutí potvrdí (hlavně u rizikových zásahů).
- Minimalizace dat: sbíráme jen to, co potřebujeme, a na jasný účel.
- Bezpečnost: stejné standardy jako pro klíčové systémy (řízení přístupů, audit, incident management).
Tady se přirozeně potkává AI s kyberbezpečností. AI může pomáhat (detekce anomálií, triáž incidentů), ale zároveň rozšiřuje útokovou plochu (nové integrace, nové identity, nové datové toky). Pokud nemáte jasnou governance, AI vám přidá rychlost i chaos zároveň.
Co udělat v příštích 90 dnech: plán pro vedení škol a CIO
Nejrychlejší cesta k výsledkům je udělat tři rozhodnutí a dvě inventury. Tohle je realistický 90denní plán, který vidím fungovat i bez „super týmu“:
- Jmenujte vlastníka AI (ne jen pracovní skupinu)
- jasný mandát, rozpočet na koordinaci, schopnost rozhodovat.
- **Udělějte inventuru use casů a pilotů (včetně „stínové AI“) **
- co se už používá neoficiálně, kde teče riziko, kde je hodnota.
- Zaveďte minimální pravidla pro bezpečné používání
- co smí do veřejných nástrojů, co jen do institucionálních, jak se pracuje se studijními daty.
- Rychlý audit datové připravenosti pro 2–3 prioritní scénáře
- vyberte scénáře s dopadem (např. studijní riziko, helpdesk, podpora výuky).
- Spusťte základní program AI gramotnosti
- krátký, povinný základ + doporučené moduly podle rolí.
Tohle je přesně ten typ práce, který podporuje i náš seriál o AI ve vzdělávání: nezačínat u technologie, ale u schopností lidí a kvality dat.
Kam to míří v roce 2026: více AI v systémech, více rozhodování na škole
V roce 2026 bude AI častěji „zabudovaná“ přímo do systémů, které školy už používají: studijní agenda, ekonomika, CRM, LMS. To znamená méně rozhodování „jestli AI“, ale více rozhodování kterou AI funkci povolíme, pro koho, s jakými daty a jak to změříme.
Pokud má škola jasnou strategii, zvládá to. Pokud ne, čeká ji typický scénář:
- roztříštěné nákupy,
- konfliktní pravidla,
- frustrace uživatelů,
- a nakonec „stopka“, která zabrzdí i dobré projekty.
Vedení škol, které to vezme za správný konec už teď, získá v roce 2026 náskok: lepší podporu studia, smysluplnější learning analytics, efektivnější provoz a hlavně kulturu, která umí s AI pracovat bez paniky.
Pokud chcete, aby AI skutečně pomáhala s personalizovaným učením a rozvojem dovedností, položte si jednu praktickou otázku: Který konkrétní studijní nebo provozní problém vyřešíme v příštím semestru – a jak poznáme, že se to povedlo?