AI ve vzdělávání funguje jen tehdy, když stojí na lidských vztazích. Praktický návod, jak spojit personalizaci, bezpečnost a reálné dopady.

AI ve vzdělávání: proč je lidský kontakt klíčový
Největší omyl, který teď ve vzdělávání vídám, je víra, že když nasadíme „víc AI“, dostaneme automaticky „lepší učení“. Ne. Dostaneme rychlejší obsah, víc dat a často i víc automatizace. Ale lepší učení vzniká až tehdy, když se technologie opře o vztahy: o důvěru, jasná očekávání, bezpečí v týmu a ochotu opravdu naslouchat.
Tohle není nostalgie po „starých dobrých časech“. Je to praktická věc. V diskusi kolem žebříčku EDUCAUSE Top 10 pro rok 2026 zaznělo, že technologie ve školách už není jen o implementaci systémů, ale o propojování lidí, procesů a nástrojů – a o tom, jaký dopad to má na každodenní zkušenost studujících i vyučujících. Přesně v tomhle bodě se láme chleba i u nás: v univerzitách, ve firemním vzdělávání, v rekvalifikacích.
V rámci série „Umělá inteligence ve vzdělávání a rozvoji dovedností“ se dnes podíváme na to, jak AI podporuje personalizované vzdělávání a digitální platformy – a proč bez lidského „lepidla“ (vztahů a komunikace) začnou i dobré projekty drhnout.
Lidské propojení není „měkké“ téma. Je to infrastruktura.
Lidské propojení je ve vzdělávání totéž, co je v IT síti kvalitní konektivita: když chybí, nic dalšího dlouhodobě nefunguje. V rozhovoru k EDUCAUSE Top 10 zazněla silná myšlenka: technologičtí lídři se posouvají od „správců systémů“ k rolím, kde rozhoduje naslouchání, spolupráce a budování partnerství.
Tohle je pro AI ve vzdělávání zásadní. Personalizace výuky pomocí AI totiž vždy naráží na tři lidské limity:
- Důvěra: Studující i vyučující musí věřit, že systém pracuje férově a bezpečně.
- Přijetí změny: AI mění zvyklosti (zadávání úkolů, hodnocení, podpora studia) a lidi to přirozeně vytáčí z komfortu.
- Smysl: Bez jasného „proč“ se AI zredukuje na další povinný nástroj, který se obchází.
Jedna věta, kterou si z toho beru: „Technologie ve vzdělávání je dnes hlavně o vztazích.“
Jazz místo excelu: struktura + prostor pro improvizaci
V podcastu padla metafora jazzu: aby hudba fungovala, potřebuje tempo, tóninu a strukturu, ale zároveň prostor pro individuální kreativitu. Ve vzdělávání je to podobné.
- Struktura: pravidla pro používání AI, standardy kvality, bezpečnost, datová governance, jasná odpovědnost.
- Improvizace: pedagogická svoboda, různé obory, různé styly učení, experimenty v kurzech.
AI platformy často tlačí na standardizaci. Lidský kontakt drží otevřený prostor pro adaptaci – aby se z personalizace nestala uniformita.
AI je už všude. Přestaňme ji lepit jako nálepku.
Zaznělo i něco, co je podle mě skvěle střízlivé: AI časem přestane být samostatné téma, protože se stane běžnou součástí všeho – podobně jako internet. Dnes je „AI“ v názvech projektů, strategií i pracovních pozic. Za pár let to bude spíš předpoklad.
Co z toho plyne pro školy a vzdělávací týmy?
1) Neřešte „AI strategii“ ve vzduchoprázdnu. Řešte výukovou a dovednostní strategii.
Pokud je cílem lepší podpora studujících, vyšší úspěšnost, férovější hodnocení nebo rychlejší zpětná vazba, pak je AI jen jedna z cest. Jakmile se strategie zúží na nákup nástroje, výsledkem bývá:
- „Pilot“, který nikdy nepřejde do provozu,
- odpor vyučujících,
- frustrace studujících,
- chaos kolem pravidel (co je ještě ok a co už je podvod).
2) Zásadní bude propojování systémů a rolí
V diskusi padl velmi konkrétní posun: dřív se řešilo, jak velké má být datové centrum nebo Wi‑Fi. Dnes je mnohem důležitější, jak spolu „mluví“ studijní agenda, LMS, CRM, knihovní systémy a nástroje pro podporu výuky – a jak to celé dopadá na člověka na druhé straně.
Praktický příklad z prostředí celoživotního vzdělávání:
- Studující se přihlásí do kurzu.
- AI asistent v LMS mu automaticky nabídne studijní plán podle vstupního testu.
- Tutor ale vidí, že účastník „mizí“ po týdnu.
- Místo automatických upomínek přijde lidský kontakt: krátký telefonát nebo zpráva s konkrétní pomocí.
AI odhalí signál. Člověk udělá zásah, který mění výsledek.
„Chief Listening Officer“: kompetence, kterou AI nenahradí
V rozhovoru mě bavila formulace, že technologický lídr je dnes často „chief listening officer“. V kontextu AI ve vzdělávání to znamená, že někdo musí aktivně sbírat a překládat potřeby:
- studujících (co je mate, co jim pomáhá, kde je tření),
- vyučujících (co je zdržuje, jak chtějí hodnotit, kde potřebují oporu),
- managementu (co je riziko, co je priorita, jak se měří dopad).
Bez toho se personalizované vzdělávání snadno zvrhne na „personalizovaný chaos“.
Rychlý rámec: 5 otázek, které si položte před nasazením AI do výuky
- Jaký konkrétní problém řešíme? (např. nízká dokončovanost kurzů, přetížení tutorů, pomalá zpětná vazba)
- Kdo je uživatel a co je pro něj „dobrý zážitek“? (student vs. vyučující vs. studijní oddělení)
- Jak bude vypadat lidská podpora, když AI selže? (fallback proces, eskalace)
- Jak budeme měřit dopad? (dokončovanost, čas na zpětnou vazbu, spokojenost, počet incidentů)
- Jaká pravidla jsou nevyjednatelná? (soukromí, bezpečnost, akademická integrita)
Když nedokážete odpovědět, ještě není čas na rollout.
Kyberbezpečnost, důvěra a akademická integrita: „spolu“ nebo vůbec
V EDUCAUSE Top 10 rezonuje spolupráce v kyberbezpečnosti a dopad technických opatření na uživatele (typicky multifaktor). Ve vzdělávání s AI tohle téma nabírá na síle z jednoduchého důvodu: čím víc personalizace, tím víc dat.
A tady se často dělá chyba. Instituce zavedou AI nástroj a komunikují ho stylem „od zítřka povinné“. Výsledek? Obcházení, stínové používání jiných nástrojů, pokles důvěry.
Co funguje lépe:
- Vysvětlit přínos v jazyce uživatele (ne „kvůli compliance“, ale „chráníme váš účet i práci“).
- Zmapovat třecí místa (kde je ověřování pomalé, kde se lidé zasekávají).
- Dát lidem volby v rámci mantinelů (více metod ověření, jasná doporučení).
Stejný princip platí pro akademickou integritu: pravidla pro AI v zadáních musí být čitelná a obhajitelná. Když studující neví, co je povoleno, budou to testovat – a hranice se posune.
„Udělej další správnou věc“: jak převést strategii do praxe
V podcastu zazněla věta, kterou bych klidně zarámoval: „Udělej další správnou věc.“ V AI projektech je to nejlepší protilátka proti paralýze z komplexity.
Mini-playbook pro školy a vzdělávací týmy (30 dní)
- Vyberte jeden scénář s jasným dopadem
- např. AI pro zpětnou vazbu k psaným úkolům v jednom předmětu
- Sestavte mikro-tým (3 role)
- vyučující, metodik/instructional designer, IT/data člověk
- Nastavte pravidla používání AI na jednu stránku
- co je povoleno, co se musí uvést, co je zakázané
- Zajistěte „lidský servisní kanál“
- konkrétní kontakt pro studující i vyučující
- Změřte 3 metriky
- čas na zpětnou vazbu, spokojenost, kvalita výstupů (rubrikou)
Po měsíci budete vědět víc než po třech poradách o „AI transformaci“.
Co bych udělal já (a co často chybí)
Zavedl bych krátké, pravidelné „poslechové“ rozhovory: 20 minut se studenty a 20 minut s vyučujícími po každém pilotu. Ne dotazník. Rozhovor. U AI je nejdůležitější zachytit detaily typu:
- „Tady jsem nevěděl, co mám udělat.“
- „Tohle mi ušetřilo 40 minut.“
- „Tady jsem měl pocit, že mě systém trestá.“
Právě tyhle věty rozhodují, jestli bude AI ve vzdělávání přijata.
Kam to míří v roce 2026: méně „wow“, víc řemesla
Konec roku 2025 je typický tím, že se rozpočty uzavírají, plánují se piloty na jaro a zároveň roste tlak na rychlou návratnost. V takové chvíli je lákavé sáhnout po AI jako po zkratce.
Jenže u vzdělávání zkratky dlouhodobě nefungují. Funguje řemeslo:
- jasně definované cíle učení,
- dobrá didaktika,
- podpora tutorů a vyučujících,
- bezpečná práce s daty,
- komunitní sdílení praxe napříč institucemi.
A hlavně: vztahy.
Jestli si máte odnést jednu věc pro „Umělou inteligenci ve vzdělávání a rozvoji dovedností“, pak tuhle: AI umí personalizovat obsah, ale člověk personalizuje zkušenost.
Další krok je konkrétní. Vyberte jeden scénář, nastavte pravidla, změřte dopad a udělejte po cestě jednu novou spolupráci napříč týmem. Co kdyby právě tahle jediná „nová spojka“ byla to, co udrží váš AI projekt při životě i v roce 2026?