AI ve vzdělávání roste, ale politika, bezpečnost a governance rozhodují o úspěchu. Praktický rámec, co řešit v roce 2026.

AI ve vzdělávání: co si pohlídat v politice a praxi
Když se v USA v říjnu 2025 zastavil federální aparát kvůli vládnímu „shutdownu“, dopad nepřišel jako dramatický titulek, ale jako tiché hromadění problémů: granty se neproplácí, hlášení se nezpracovávají, rozhodnutí se odkládají. Pro vysoké školy je to přímý zásah do výzkumu a provozu. Pro nás v Česku je to hlavně varování: digitální vzdělávání a AI nejsou jen otázka nákupu nástrojů, ale i politik, regulací a odolnosti institucí.
V podcastu EDUCAUSE Shop Talk (záznam z výroční konference 2025) mluvili John O’Brien (CEO EDUCAUSE) a Jarret Cummings (policy & government relations) o tom, co se děje na federální úrovni a proč to technologičtí lídři na univerzitách nemůžou ignorovat. Já bych tu debatu přeložil do evropského a českého kontextu našeho seriálu „Umělá inteligence ve veřejné správě a chytrých městech“: kvalita učení, bezpečnost dat a dostupnost technologií se dnes rozhodují stejně tak ve třídě jako v pravidlech a rozpočtech.
Politická nejistota má přímý dopad na inovace ve výuce
Pointa je jednoduchá: když se rozpadá předvídatelnost financování a pravidel, instituce mají tendenci brzdit změny – a to i ty, které by studentům rychle pomohly.
V americkém kontextu shutdown nejvíc dopadal na výzkum, protože „není kdo zpracovat čerpání“ grantů. V evropském prostředí to může mít podobu jiných šoků: rozpočtové škrty, změny dotačních titulů, legislativní nejistota kolem AI a dat. A v praxi to znamená, že se pozastaví projekty typu:
- adaptivní studijní plány (personalizace učení),
- AI asistenti pro studijní podporu,
- automatizace administrativy (zápisy, uznávání předmětů, studijní dotazy),
- analytika studijní úspěšnosti a včasné intervence.
Moje zkušenost: instituce, které mají předem připravené „minimálně životaschopné“ scénáře (rozpočet, governance, právní rámec), dokážou pokračovat i v nejistotě. Ostatní skončí u pilotů bez dopadu.
Co si z toho vzít pro ČR a veřejnou správu
Chytrá města a veřejná správa stojí na stejné logice: když se mění pravidla financování nebo compliance, první na ráně bývají inovace. Proto dává smysl spojovat vzdělávání, reskilling a municipalitu: město potřebuje dovednosti, univerzita potřebuje data a praxi, stát potřebuje měřitelné výsledky.
„Kompakt“ jako lekce: když jsou podmínky jasné, benefity mlhavé
Zajímavá část debaty byla o tzv. univerzitním „compactu“: instituce by mohly získat preferenční financování výměnou za splnění konkrétních podmínek. V podcastu padly příklady podmínek, které zní pro mnoho škol toxicky:
- pětileté zmrazení školného,
- vracení školného studentům, kteří nedokončí první semestr,
- limity na podíl zahraničních studentů (včetně stropu na jednu zemi).
Bez ohledu na to, jestli jde o USA nebo Evropu, je tu obecná lekce: politiky někdy definují povinnosti do detailu, ale přínosy nechávají vágní. A právě v AI projektech to bývá nejčastější past.
Jak to převést do praxe AI ve výuce
Pokud škola (nebo veřejná instituce) zavádí AI, měla by mít dopředu vyjasněno:
- Co je měřitelný přínos (např. snížení studijní neúspěšnosti o X %, zkrácení doby vyřízení agendy o Y dní).
- Jaká je cena compliance (právní, bezpečnostní, procesní, personální).
- Kdo nese riziko (dodavatel vs. instituce; kdo odpovídá za chybu doporučení, únik dat, diskriminaci).
Snippet pro vedení: „Když jsou povinnosti konkrétní a benefity neurčité, pilotujte jen to, co můžete rychle vypnout bez škody.“
Kyberbezpečnost a soukromí: AI zvyšuje sázky
Kyberbezpečnost je dlouhodobě téma číslo jedna v akademickém IT. V debatě zaznělo, že EDUCAUSE má jednu z nejrychleji rostoucích komunit právě v oblasti cybersecurity & privacy – a AI ji ještě víc přiživuje.
Důvod je prostý: AI projekty typicky znamenají:
- více datových integrací (LMS, SIS, knihovní systémy, identity),
- více přístupových rolí a oprávnění,
- více vendorů a API,
- nové typy citlivých dat (např. „learning behavior data“).
Jarret Cummings popsal nejistotu kolem amerických pravidel hlášení kyberincidentů (CIRCIA) a to, že se zvažovalo zahrnout vysoké školy mezi „kritickou infrastrukturu“. Podobnou dynamiku vidíme i v Evropě: regulace se posouvají směrem k větší odpovědnosti, rychlejšímu hlášení incidentů a důrazu na řízení rizik.
Praktický checklist pro AI ve vzdělávání (bez ohledu na legislativu)
Tohle funguje jako minimální standard pro instituce i dodavatele:
- Data minimization: sbírat jen to, co opravdu potřebujete.
- Oddělení dat: produkční data studentů vs. data pro trénování/ladění.
- Transparentní logování: kdo se ptal, na co, s jakým výsledkem.
- Model risk management: co se stane při halucinaci, biasu, chybné klasifikaci.
- Incident playbook: kdo rozhoduje, kdy se vypíná služba, jak se informují studenti.
V chytrých městech je to stejné: AI pro dopravu nebo sociální služby bez bezpečnostních základů vytváří „rychlou službu“ s vysokým rizikem reputačního a právního průšvihu.
AI strategie už není rarita. Teď jde o kvalitu řízení
John O’Brien sdílel čísla z prostředí EDUCAUSE (AI Landscape Study 2025), která jsou výmluvná:
- 77 % institucí uvádí, že má AI strategii,
- 75 % říká, že AI ovlivnila jejich politiky a směrnice,
- 65 % připravuje (nebo plánuje připravit) institucionální data, aby byla „AI-ready“.
Tohle je přesně bod zlomu: nejde o to, jestli AI „zkusit“, ale jak ji řídit tak, aby zlepšovala učení a zároveň nezvyšovala nerovnosti.
„AI podle mise“: jednoduchý princip, který šetří čas i konflikty
V debatě zazněla myšlenka, kterou podepisuju: instituce by měly volit směr AI podle své mise a hodnot. Když je prioritou udržitelnost, dejte první AI projekty do snižování plýtvání. Když je prioritou dostupnost studia, zaměřte AI na podporu studentů v prvním ročníku.
To je kompatibilní i s veřejnou správou a chytrými městy:
- město s dopravní krizí začne AI v řízení mobility,
- úřad práce začne AI v personalizaci rekvalifikací,
- univerzita začne AI v personalizaci studijních cest.
Snippet pro strategii: „Nejrychlejší cesta k funkční AI je přestat ji zavádět ‚obecně‘ a začít ji zavádět ‚kvůli něčemu‘.“
Personalizované učení a rozvoj dovedností: kde AI dává největší smysl
Pro kampaň „Umělá inteligence ve vzdělávání a rozvoji dovedností“ je zásadní konkrétnost. AI se dnes nejlépe obhajuje tam, kde přináší rychlou hodnotu:
- Diagnostika mezer v dovednostech (skill gap) a doporučení mikro-obsahu.
- Adaptivní procvičování (jiné příklady, jiné tempo, více zpětné vazby).
- Studijní koučink (plánování, struktura, vysvětlení zadání, podpora pro neurodiverzní studenty).
- Podpora vyučujících (rychlé rubriky, návrhy aktivit, anonymizace a shrnutí zpětné vazby).
A teď to nejdůležitější: bez datové a procesní připravenosti to skončí jako „AI chatbot na webu“, který sice odpovídá rychle, ale nikdo mu nevěří.
Regulace AI: federál může brzdit, regiony jedou dál
V americké debatě zaznělo, že federální přístup k AI se může nést ve znamení deregulace, zatímco státy vydávají desítky a stovky návrhů zákonů. V Evropě máme opačný pól: výraznější unijní rámce a pak lokální dopady v implementaci.
Pro české instituce je praktická rada stejná jako v podcastu: vracejte se k hodnotám, budujte governance, a počítejte s tím, že pravidla se budou měnit.
Co bych jako technologický lídr hlídal v roce 2026
Debata otevřela i témata „regulatorního horizontu“: dostupnost, bezpečnost, reporting incidentů, přístupnost webů a aplikací. V českém kontextu to přeložím do tří oblastí, které se vyplatí řešit už teď:
- Přístupnost (accessibility) jako standard, ne projekt: AI ve výuce musí být použitelná i pro studenty se specifickými potřebami.
- Řízení dodavatelů (vendor risk): AI řešení často běží mimo infrastrukturu školy; smlouvy a audity jsou klíč.
- Dovednosti lidí: bez školení vyučujících a podpory studentů se z AI stane další „systém, co překáží“.
Co udělat hned: 30denní plán pro školu nebo veřejnou instituci
Pokud chcete AI ve vzdělávání posunout z debaty do reality (a zároveň sbírat leads férově, přes hodnotu), funguje tento postup:
- Vyberte 1 problém s dopadem (např. propadovost v matematice v 1. semestru).
- Stanovte 3 metriky (výsledek, proces, riziko) – např. úspěšnost, využití podpory, incidenty.
- Udělejte datovou inventuru: kde data jsou, kdo je vlastní, jaké jsou právní tituly.
- Zaveďte AI governance mini-board (IT + studijní + právník + bezpečnost + zástupce vyučujících).
- Pilot na 8 týdnů s jasným „kill switch“ a pravidly transparentnosti.
Tohle je použitelné i pro chytré město: vyberete jednu službu (např. podání žádostí), dáte metriky (doba vyřízení, chybovost, spokojenost), nastavíte pravidla a pilot.
Kam to celé míří: AI ve vzdělávání jako infrastruktura veřejné hodnoty
Napětí mezi politikou, financováním, bezpečností a inovací nikam nezmizí. Ale jde s tím pracovat. Debata z EDUCAUSE mi připomněla jednu věc: instituce, které zvládnou AI řídit (ne jen „nasadit“), budou určovat tempo změn ve vzdělávání i ve veřejných službách.
Pokud máte na starosti digitální vzdělávání, rozvoj dovedností nebo inovace ve veřejné správě, položte si dnes jednu praktickou otázku: který jeden proces učení nebo podpory studentů (občanů) má největší potenciál zlepšení – a jak ho uděláte bezpečně, spravedlivě a měřitelně?
Chcete-li zrychlit přípravu: připravte si seznam 3 use-cases, 3 metrik a 3 datových zdrojů. Pak už se dá vést konkrétní debata – s IT, s vedením i s dodavatelem.