AI regulace a etika ovlivní univerzity i chytrá města v roce 2026. Praktické kroky, jak zavést AI bezpečně, měřitelně a s úsporami.

AI regulace a vysoké školy: co čekat v roce 2026
Největší omyl, který teď ve veřejném sektoru a na univerzitách vídám, zní: „AI je hlavně technologická otázka.“ Není. V praxi je to směs práva, bezpečnosti, etiky, financí a důvěry – a právě to rozhodne, jestli AI ve vzdělávání zlevní služby a zvýší kvalitu, nebo přidá další vrstvu chaosu.
Diskuse technologických lídrů kolem vysokého školství (a federální politiky v USA) přinesla tři signály, které se týkají i Česka – obzvlášť pokud pracujete ve veřejné správě, ve městě, na univerzitě nebo u dodavatele digitálních služeb: regulace se rozchází mezi kontinenty, tlak na prokazování hodnoty vzdělávání roste a nestabilita pravidel bude „nový standard“ minimálně pro rok 2026.
V tomhle článku překládám tyto signály do češtiny a do reality „Umělé inteligence ve veřejné správě a chytrých městech“: co z toho plyne pro AI ve výuce, pro digitální služby a pro rozvoj dovedností – a hlavně co s tím udělat, aby z toho byly měřitelné výsledky a leady, ne jen prezentace.
1) Regulace AI se rozchází: Evropa nastaví rytmus i pro ostatní
Hlavní pointa: I když se část americké politiky může snažit brzdit regulaci AI, evropský přístup (typicky přísnější) bude mít dopad na instituce a dodavatele, kteří pracují se studenty, občany nebo daty napříč hranicemi.
V debatě zaznělo, že když se v USA oslabuje snaha o centrální regulaci AI, řada institucí se začne víc opírat o evropské rámce. Pro české prostředí je to vlastně „normální“ – EU pravidla a standardy mají tendenci stát se referencí i pro partnery mimo EU, protože:
- evropské instituce vyžadují kompatibilitu (smlouvy, bezpečnostní audity, veřejné zakázky),
- studenti a zaměstnanci cestují a data tečou přes hranice,
- velcí dodavatelé často nastavují produkt „na nejpřísnější trh“ a zbytek světa to převezme.
Co to znamená pro AI ve vzdělávání a rozvoj dovedností
Ve vzdělávacím prostředí se etika a regulace rychle promítá do každodenních rozhodnutí:
- Jaké AI nástroje smí učitel doporučit?
- Kde končí „asistence“ a začíná podvádění?
- Kdo nese odpovědnost za chybu modelu v hodnocení?
Pokud jste v roli CIO, vedoucího digitalizace, metodika nebo člověka, který připravuje AI strategii školy či organizace, držel bych se jednoduché věty:
„Kdo dnes postaví AI procesy tak, aby obstály v EU rámcích, bude zítra rychlejší než konkurence.“
Praktický krok: politika „AI použitelné v EU“
Doporučuju zavést interní pravidlo, že jakýkoliv AI nástroj použitý pro práci se studenty/občany musí mít minimálně:
- jasně popsané datové toky (co odchází, kam, na jak dlouho),
- možnost vypnout trénování na datech (nebo smluvní garanci),
- auditovatelné logy (kdo a kdy použil AI, v jakém procesu),
- model governance (vlastník, schvalování změn, měření chybovosti).
Tohle je překvapivě účinné i pro chytrá města: stejné principy využijete u chatbotu pro občany, u AI třídění podnětů nebo u predikcí v dopravě.
2) Mezinárodní spolupráce není „hezký bonus“. Je to obrana proti vendor lock-in
Hlavní pointa: Spolupráce napříč zeměmi a asociacemi pomáhá sladit standardy (interoperabilita), sdílet benchmarking a snižovat riziko, že se instituce uvězní u jedné platformy.
V původní diskusi padlo, že vysoké školy a jejich asociace plánují společné benchmarkingové aktivity napříč regiony. To je přesně ten typ „nudné infrastruktury“, který reálně rozhoduje o úspěchu AI.
V českém kontextu to dává smysl i mimo akademii: chytré město a univerzita dnes často sdílí dodavatele, cloudovou infrastrukturu, identitu (SSO), kyberbezpečnostní standardy a někdy i data (např. doprava, mobilita, demografie).
Interoperabilita v praxi: proč vás má zajímat i jako „ne-IT“ člověka
Interoperabilita není jen API. Je to schopnost:
- přenést studenta/uživatele mezi službami bez tření,
- vyměnit dodavatele bez kolapsu,
- měřit kvalitu a dopady napříč systémy.
Pokud AI vrstva stojí na uzavřeném řešení, skončíte s tím, že „to funguje“, ale:
- nejde to auditovat,
- nejde to škálovat na další agendy,
- nejde to bezpečně integrovat.
Praktický krok: 90denní interoperabilní audit
Za 90 dní lze udělat audit, který odhalí, kde vám AI projekty narazí:
- mapování datových zdrojů (LMS, spisová služba, helpdesk, CRM, identita),
- klasifikace dat (osobní/ citlivá / provozní),
- seznam integrací a „ručních kroků“,
- rizika vendor lock-in (formáty, exporty, smlouvy).
Výstupem má být krátký dokument pro vedení: 3 největší technické dluhy a 3 kroky, které uvolní ruce pro AI projekty ve výuce a službách.
3) AI jako cesta ke snížení nákladů: začněte tam, kde se nehádat
Hlavní pointa: Nejrychlejší úspory přichází z automatizace opakovaných dotazů a administrativy – ne z „AI, která všechno pochopí“.
V debatě zazněl jednoduchý příklad: chatbot, který studentům pomůže s resetem multifaktorového ověřování. To je přesně typ use-casu, který:
- je měřitelný (počet tiketů, doba řešení),
- má nízké riziko (nejde o známky ani o diagnózy),
- uvolní kapacitu lidí na smysluplnější práci.
V české veřejné správě a chytrých městech je analogie jasná: místo toho, aby zaměstnanec 40× denně odpovídal na stejnou otázku, AI:
- předvyplní odpověď,
- nasměruje občana,
- zkontroluje, jestli žádost obsahuje povinné přílohy,
- shrne komunikaci pro úředníka.
Co funguje ve vzdělávání (a dá se přenést do veřejných služeb)
Doporučuju začít se třemi typy scénářů:
- Podpora uživatelů: FAQ, helpdesk, orientace v systémech, reset přístupů.
- Administrativa studia: kontrola úplnosti žádostí, připomínky termínů, shrnutí komunikace.
- Podpora výuky: generování variant zadání, rubriky hodnocení, personalizované doporučení zdrojů (s lidskou kontrolou).
U každého scénáře si nastavte měření. Bez toho budete mít hezkou pilotáž a nulovou důvěru.
Metriky, které přesvědčí vedení (a často i finance)
- průměrná doba vyřízení požadavku (minuty/hodiny),
- počet tiketů na 1000 uživatelů,
- míra „first contact resolution“ (kolik se vyřeší napoprvé),
- spokojenost uživatelů po interakci,
- počet eskalací na člověka.
Cíl na 2026, který je realistický a přitom ambiciózní: snížit zátěž první linie podpory o 20–30 % u opakujících se dotazů během jednoho semestru.
4) Tlak na „hodnotu za peníze“: AI musí být obhajitelná, ne jen populární
Hlavní pointa: Politika (a veřejné finance obecně) směřuje k tomu, že vzdělávací programy budou muset prokazovat návratnost. Technologie a AI do toho vstupují dvojím způsobem: mohou zvyšovat hodnotu, ale zároveň zvyšují nároky na transparentnost.
V americkém kontextu se mluvilo o tlaku na programy, jejichž absolventi nevydělávají víc než průměrný středoškolák v daném státě. V Česku to nebude kopie, ale trend je podobný: školy a veřejné instituce budou pod drobnohledem – výsledky, uplatnitelnost, efektivita.
AI ve vzdělávání tak musí být postavená tak, aby šla obhájit:
- pro studenta (spravedlnost, srozumitelnost),
- pro učitele (zátěž, kontrola, kvalita),
- pro zřizovatele a veřejnost (bezpečnost, přínos, náklady).
Praktický krok: „AI business case“ na jednu stránku
U každého AI projektu si vynucujte jednostránkový business case:
- problém (1 věta),
- komu to pomůže (konkrétní skupiny),
- jak měříme přínos (2–3 metriky),
- rizika a mitigace (bezpečnost, etika, reputace),
- náklady (licence, integrace, provoz),
- vlastník a termín revize.
Je to jednoduché, ale překvapivě to oddělí projekty, které mají šanci uspět, od těch, které jsou jen „AI hype“.
5) Nepředvídatelnost pravidel: připravte se na „pendulum management“
Hlavní pointa: Politická kyvadla a rychlé změny exekutivních rozhodnutí (v USA velmi viditelně) vytváří prostředí, kde se instituce musí umět rychle přizpůsobit – bez toho, aby ohrozily bezpečnost a kvalitu.
Tohle je relevantní i pro Evropu, byť jinak. U nás se změny často dějí pomaleji, ale o to víc bolí, když jsou systémy postavené natvrdo. V AI to platí dvojnásob: modely, dodavatelé, licenční podmínky i pravidla používání se mění rychle.
Co funguje: modulární architektura a „policy by design“
Pokud chcete AI udržet pod kontrolou v roce 2026, stavte:
- modulárně (AI vrstva jako vyměnitelná komponenta),
- s jasnými hranicemi dat (co AI smí vidět a co ne),
- s průběžným auditem (logy, monitoring chyb),
- s provozním scénářem selhání (co když AI nefunguje / halucinuje / je vypnutá).
Tohle je stejné pro univerzitu i pro městský úřad: AI není „aplikace“, AI je schopnost, kterou musíte řídit.
Co si odnést do roku 2026 (a co udělat už v lednu)
Tři věty, které bych si dal na nástěnku každému týmu, který řeší AI ve vzdělávání, veřejné správě nebo chytrém městě:
- Regulace a etika nejsou brzda; jsou to mantinely, díky nimž AI přežije.
- Největší úspory přijdou z rutiny – helpdesk, administrativa, triáž – ne z „magického“ hodnocení.
- Bez měření přínosů budete mít piloty, ale ne rozhodnutí.
Pokud chcete z AI získat reálnou hodnotu (a zároveň mít klid u auditů, kyberbezpečnosti i vedení), začněte v lednu 2026 tímhle:
- vyberte 1–2 nízkorizikové procesy s vysokým objemem,
- nastavte metriky a logování,
- sepište jednostránkový AI business case,
- a teprve pak škálujte.
A teď ta otázka, kterou si podle mě musí položit každá instituce, která plánuje AI ve výuce nebo ve službách občanům: Budujeme AI tak, aby byla obhajitelná i při změně pravidel – nebo jen doufáme, že se pravidla nezmění?