AI ve vzdělávání: měřte hodnotu, než nakoupíte nástroje

Umělá inteligence ve vzdělávání a rozvoji dovednostíBy 3L3C

Měřený přístup k AI ve vzdělávání šetří rozpočet i nervy. Zjistěte, jak spočítat hodnotu, nastavit pilot a vybrat nástroj pro rozvoj dovedností.

AI ve vzděláváníedtechIT governancepilotní projektyROIpersonalizované učenítechnologický dluh
Share:

Featured image for AI ve vzdělávání: měřte hodnotu, než nakoupíte nástroje

AI ve vzdělávání: měřte hodnotu, než nakoupíte nástroje

Na konci roku 2025 je trh s edtech nástroji přeplněný. A nejde jen o nové aplikace – jde o nekonečné „AI funkce“ přidávané do systémů, které už školy používají. Výsledek? Lidé ve vedení často slyší dvě protichůdné věty ve stejný týden: „Bez tohohle AI modulu budeme pozadu“ a „Nemáme kapacitu zavádět další systém.“

Mnoho institucí dělá pořád stejnou chybu: nakupují technologie jako rychlou náplast. Jenže ve vzdělávání (zvlášť při rozpočtech na rok 2026) už není prostor na impulzivní rozhodnutí. Měřený přístup k novým technologiím – hlavně k AI ve vzdělávání – není pomalost. Je to disciplína: jasně definovat hodnotu, rizika, náklady a dopady na lidi.

V této části série „Umělá inteligence ve vzdělávání a rozvoji dovedností“ ukazuju praktický rámec, jak vybírat a zavádět AI nástroje tak, aby z nich vznikly lepší studijní výsledky, smysluplná personalizace a reálný rozvoj dovedností – ne další položka v seznamu licencí.

Proč školy přeplácí za „rychlá řešení“ (a jak to poznáte)

Přeplácení obvykle nevzniká špatnou vůlí, ale špatným procesem. Když se objeví tlak (nová akreditace, nespokojenost studentů, přetížení učitelů, bezpečnostní incident), sáhne organizace po nástroji, který vypadá, že problém vyřeší hned. Jenže tím často vytvoří problém nový: více systémů, více integrací, více školení, více požadavků na podporu.

Nejčastější signály, že se rozhodujete impulzivně:

  • „Kupme to, pak vymyslíme use-case.“ V praxi to znamená slabé využití a frustraci.
  • Nejasný vlastník produktu. Nikdo není zodpovědný za dopady na výuku, data, podporu ani rozpočet.
  • Nástroj duplikuje, co už máte. Jen to „vypadá moderněji“.
  • IT a výuka nejsou u stolu spolu. A pak se divíme, že se řešení neuchytí.

U AI nástrojů se to násobí. Protože AI slibuje „zlepšit všechno“ – od známkování po personalizované učení. A právě tenhle široký slib ztěžuje měření hodnoty.

ROI nestačí: ve vzdělávání rozhoduje i ROV (hodnota pro lidi)

Dobré rozhodnutí o AI ve vzdělávání stojí na dvou nohách: ROI a ROV. ROI (návratnost investice) řeší peníze. ROV (return on value) řeší, jestli to zlepší učení, dovednosti, dostupnost a kvalitu práce.

Jak vypadá ROI u AI nástrojů ve škole

ROI si můžete spočítat relativně přímočaře, když si dáte pozor na „skryté položky“:

  • licence (uživatel/rok, modul, API, navýšení při růstu)
  • implementace a integrace (LMS, SIS, identity, SSO)
  • provoz (správa, monitoring, incidenty)
  • podpora a školení (helpdesk, metodická podpora)
  • governance (právní, bezpečnost, DPO, komise)

U AI se navíc často objeví proměnná cena za používání modelu (např. počtem požadavků). Pokud to nemáte smluvně pod kontrolou, „levný pilot“ se může změnit v drahý provoz.

Jak vypadá ROV: lepší učení a rozvoj dovedností

ROV je to, co zajímá studenty, učitele a vedení studijních programů:

  • zlepšení studijních výsledků (např. vyšší úspěšnost v klíčových předmětech)
  • rychlejší a kvalitnější zpětná vazba
  • lepší individualizace (podpora slabších i rychlejších studentů)
  • rozvoj dovedností pro praxi (kritické myšlení, práce s informacemi, komunikace)
  • dostupnost (podpora studentů se specifickými potřebami, jazyková pomoc)

Moje zkušenost: instituce vyhrají tehdy, když AI navážou na konkrétní výstupy učení a dovednosti – ne na obecné „zefektivnění“.

Přetížení nástroji? Začněte inventurou „ekosystému“ a technologického dluhu

Nejrychlejší cesta k lepšímu rozhodování není nová komise. Je to dobrý přehled. Mnoho škol nemá aktuální mapu toho, co už vlastní, co se opravdu používá a co bolí (licence, integrace, duplicity, nevyužité funkce).

Praktický mini-audit na 10 pracovních dní

Cíl: zjistit, zda potřebu nevyřešíte tím, co už máte.

  1. Seznam nástrojů pro výuku a podporu studia (LMS, testování, plagiáty, videoplatformy, analytika, kariérní služby, knihovna).
  2. U každého nástroje tři čísla: počet aktivních uživatelů za posledních 90 dní, roční náklad, hlavní use-case.
  3. Mapa integrací: co je napojené na identity, studijní systém, úložiště, kalendáře.
  4. Seznam „bolestí“ od lidí: 10 nejčastějších tiketů z podpory + 10 nejčastějších stížností vyučujících.
  5. Technologický dluh: co se drží jen silou vůle (manuální exporty, obcházení, lokální skripty, „tohle radši nerozbijme“).

Tenhle audit často odhalí, že instituce:

  • platí dvě řešení na totéž,
  • nevyužívá funkce, které už licencuje,
  • má špatně nastavené procesy (a „AI“ by jen zrychlila chaos).

A to je klíčové: AI nezlepší špatný proces. AI ho zrychlí a zviditelní.

Měřený přístup v praxi: malé experimenty místo velkého „nasazení všude“

Nejspolehlivější způsob, jak zavádět nové technologie ve vzdělávání, je začít úzce vymezeným pilotem s jasným měřením. To platí dvojnásob pro AI, kde se rychle mění kvalita výstupů, regulace i očekávání uživatelů.

Inspirativní je přístup jedné univerzity, která u imerzivních technologií nejdřív investovala do zařízení a tvorby obsahu, ale brzy narazila na otázku: „Má to pro nás vůbec hodnotu?“ Místo toho, aby technologii „protlačila“ plošně, zvolila těsně ohraničené experimenty s konkrétními fakultami (zdravotnictví, právo, management). Výsledkem bylo jednodušší obhajování přínosu – protože se opírali o use-cases, které studentům umožnily zkušenosti, jež by jinak nebyly možné (kvůli bezpečnosti, praxi nebo dostupnosti).

U AI ve vzdělávání je to stejné. Velká nasazení vytvářejí generické scénáře a generická očekávání. Malé experimenty vás donutí být konkrétní.

Jak navrhnout pilot AI tak, aby něco dokázal

Pilot má odpovědět na jednu větu: „V této situaci AI prokazatelně zlepší učení / dovednost / dostupnost při přijatelných nákladech a riziku.“

Doporučený rámec:

  • Jedna cílová skupina: např. první ročník, konkrétní kurz, studenti kombinovaného studia.
  • Jeden scénář: např. personalizovaná příprava na zápočet, AI tutor pro procvičování, asistence při psaní s důrazem na citace.
  • Jedna metrika dopadu (ROV): úspěšnost, retence, kvalita práce podle rubriky, rychlost zpětné vazby.
  • Jedna metrika nákladů (ROI): čas vyučujícího, cena za používání, počet tiketů.
  • Bezpečnostní a právní hranice: data, souhlasy, pravidla použití.

Praktický tip: pilot nastavte na 6–10 týdnů (typicky jedna část semestru). Méně je krátké na změnu chování. Více už bývá „skoro produkce“, ale bez produkčních procesů.

Co chtít po dodavateli: transparentnost, integrace a odpovědnost

U AI nástrojů není největší riziko, že nebudou umět generovat text. Největší riziko je, že nebudou řídit dopady. Škola pak nese reputační i provozní následky.

Do výběru a smluv si dejte požadavky, které chrání výuku i rozpočet:

  • Jasný cenový model (včetně růstu a limitů)
  • Interoperabilita a integrace (LMS, identity, export dat, auditní logy)
  • Roadmapa produktu (co se bude měnit v příštích 6–12 měsících)
  • Odpovědnost za incidenty (SLA, postupy, kontakty)
  • Transparentnost práce s daty (kde jsou uložena, kdo k nim má přístup, jak dlouho)

A ještě jedna věc: chtějte „exit plán“. Jak data exportujete, jak ukončíte smlouvu, co se stane s obsahem a integracemi. Měřený přístup znamená, že umíte nejen zavést, ale i rozumně odejít.

Nejčastější otázky z praxe (a přímé odpovědi)

„Když budeme čekat, nepřijdeme o náskok?“

Většinou nepřijdete. Vzdělávání není sprint o nejnovější funkci, ale dlouhodobá práce se studijními výsledky. Kdo má jasně definované use-cases, metriky a governance, ten se umí rozhodovat rychleji – i když chvíli vyčkává.

„Máme koupit samostatný AI nástroj, nebo využít AI ve stávajícím LMS?“

Začněte tam, kde už máte data, uživatele a podporu. AI funkce ve stávajícím ekosystému často vyhrají na integraci, jednotném přihlášení a menší provozní zátěži. Samostatné nástroje dávají smysl tehdy, když přinášejí jasně měřitelný přínos, který stávající systém neumí.

„Jak zabránit tomu, aby AI zhoršila akademickou integritu?“

Neřešte to zákazem, řešte to designem výuky. Změňte typ úkolů (proces, reflexe, obhajoba, práce s daty), nastavte pravidla použití AI a učte studenty transparentnosti (co bylo vytvořeno AI, co člověkem, jak ověřovali fakta).

Co si odnést do plánování 2026: méně nákupů, víc rozhodování

Měřený přístup k novým technologiím je dnes v praxi jednoduchý: nejdřív vyjasnit hodnotu, pak teprve kupovat. Ve vzdělávání to platí dvojnásob, protože dopad není jen finanční – je pedagogický, organizační a reputační.

Pokud máte na stole AI ve vzdělávání, personalizované učení nebo nástroje pro rozvoj dovedností, začněte těmito třemi kroky:

  1. Inventura ekosystému a technologického dluhu (co už máte, co se používá, co duplikuje).
  2. Pilot s úzkým scénářem a měřením dopadu (ROV + ROI).
  3. Governance a smluvní požadavky (transparentnost, integrace, exit).

V další fázi série „Umělá inteligence ve vzdělávání a rozvoji dovedností“ se dá jít ještě konkrétněji: jak vybrat metriky pro personalizované učení, jak postavit rubriky pro hodnocení dovedností a jak nastavit pravidla pro používání AI tak, aby podporovala samostatné myšlení.

A teď ta otázka, kterou bych si na vašem místě položil ještě dnes: Který jediný studijní problém má u vás nejvyšší náklady (čas, neúspěšnost, frustrace) – a jak by vypadal pilot, který ho během 8 týdnů měřitelně zlepší?

🇨🇿 AI ve vzdělávání: měřte hodnotu, než nakoupíte nástroje - Czech Republic | 3L3C