Cilvēcīga pieeja AI viedajās pilsētās: kā būt “pietiekami gudriem”, uzlabot publiskos pakalpojumus un mazināt riskus.

AI viedajās pilsētās: “pietiekami gudri” risinājumi
- gadā daudzas pašvaldības ir nogurušas no “pilotprojekta pēc pilotprojekta” pieejas. Sensoru tīkli, kameras, čatboti, prognozējoša analītika — tehnoloģijas ir daudz, bet iedzīvotāju pieredze bieži uzlabojas lēni. Un tad parādās neērtais jautājums: vai mēs būvējam viedu pilsētu, vai vienkārši tehnoloģijām piesātinātu pilsētu?
SmartCitiesWorld podkāstā Ben Green (grāmatas The Smart Enough City autors) iedod ļoti praktisku “pretindi” — noņemt tehnoloģiju brilles un atcerēties, ka tehnoloģija nav mērķis. Man šī doma šķiet īpaši svarīga mūsu tēmai — mākslīgais intelekts publiskajā sektorā un viedajās pilsētās — jo AI projektus ir pārāk viegli uztaisīt “pareizi tehniski” un tomēr “nepareizi sociāli”.
Šajā rakstā es pārvēršu Ben Green ideju par “pietiekami gudru” pilsētu konkrētā rīcības sistēmā: kā izvēlēties AI lietojumus, kas reāli uzlabo e-pārvaldes pakalpojumus, infrastruktūras pārvaldību un satiksmes plūsmas analīzi, vienlaikus stiprinot demokrātiju un taisnīgumu.
Ko nozīmē “pietiekami gudra” pilsēta AI laikmetā
“Pietiekami gudra” pilsēta ir tāda, kas izmanto tehnoloģiju tikai tur, kur tā skaidri uzlabo publisko pakalpojumu rezultātu, un atsakās no risinājumiem, kas izskatās iespaidīgi, bet rada nevajadzīgus riskus vai netaisnīgumu.
Ben Green galvenais uzstādījums: tehnoloģijai jābūt pakļautai demokrātiskiem mērķiem, nevis otrādi. AI kontekstā tas nozīmē trīs vienkāršus jautājumus, kas jāuzdod pirms jebkura iepirkuma:
- Kādu sabiedrisku problēmu mēs risinām? (nevis “ko varam automatizēt?”)
- Kam uzlabosies dzīve, un kam var pasliktināties?
- Kā mēs pārbaudīsim, vai rezultāts ir sasniegts? (ar mērījumiem, nevis sajūtām)
Šī pieeja labi sader ar publiskā sektora realitāti: budžeti ir ierobežoti, personāls noslogots, un reputācijas risks ir liels. “Pietiekami gudri” bieži ir labāk nekā “maksimāli automatizēti”.
Mīts, kas joprojām traucē: vairāk datu = labāki lēmumi
Dati paši par sevi nesniedz taisnīgumu. Ja dati atspoguļo vēsturisku nevienlīdzību (piemēram, atšķirīgas iespējas piekļūt pakalpojumiem, atšķirīga policijas klātbūtne rajonos, atšķirīga digitālā pratība), AI to var nostiprināt.
“Smart enough” domāšana prasa papildināt datu zinātni ar pārvaldību: kas ir datu īpašnieks, kā tiek veikta kvalitātes kontrole, kā tiek skaidroti lēmumi un kā iedzīvotājs var apstrīdēt kļūdu.
Kur AI publiskajā sektorā dod lielāko atdevi (un kur parasti kļūdās)
Labākie AI pielietojumi pašvaldībās ir tie, kuri ir paredzami, mērāmi un saistīti ar procesa efektivitāti — nevis tie, kas cenšas “novērtēt cilvēku” vai “prognozēt uzvedību” ar augstu kļūdas cenu.
Augstas atdeves jomas: e-pārvalde, klientu apkalpošana, dokumentu plūsma
AI e-pārvaldes pakalpojumos visbiežāk strādā tad, kad tas palīdz cilvēkam ātrāk tikt līdz pareizajai atbildei vai dokumentam.
Praktiski piemēri:
- Iesniegumu triāža: ienākošie e-pasti/iesniegumi automātiski tiek sašķiroti pa tēmām, prioritātēm un atbildīgajām struktūrvienībām.
- Pašapkalpošanās asistenti: čatboti nevis “aizstāj operatoru”, bet samazina vienkāršo jautājumu plūsmu (darba laiki, statusi, prasības).
- Dokumentu apstrāde: teksta izvilkšana no pielikumiem, datu validācija, kļūdu signāli pirms cilvēks pieņem gala lēmumu.
Šeit “pietiekami gudri” nozīmē: AI dod ieteikumu, cilvēks apstiprina. Un tiek mērīts, vai sarūk rindas, vai samazinās kļūdas, vai aug apmierinātība.
Riskantākās jomas: “ranga saraksti” par cilvēkiem un pārmērīga uzraudzība
Tur, kur AI sāk šķirot cilvēkus “riska līmeņos” (sociālie pabalsti, uzraudzība, sodu prognozēšana), kļūdas cena ir augsta: atteikts pakalpojums, stigmatizācija, diskriminācija.
Ben Green kritika par “tech goggles” šeit ir tieša: ja problēma ir nabadzība, sociālā izolācija vai uzticības trūkums, tad ar algoritmu vien to neatrisināsi. Tehnoloģija var palīdzēt atbalsta komandai strādāt ātrāk, bet mērķim jābūt palīdzība, nevis “efektīva filtrēšana”.
Demokrātija un taisnīgums: kā to ielikt AI projekta tehniskajā specifikācijā
Ja taisnīgums paliek tikai prezentācijā, tas pazudīs, tiklīdz sāksies piegāde. “Smart enough” pieeja prasa taisnīgumu pārvērst prasībās, procesos un mērījumos.
Trīs minimālie noteikumi atbildīgam AI iepirkumam
-
Skaidrojami lēmumi (explainability)
- Sistēmai jāspēj parādīt, kāpēc lieta tika klasificēta konkrētā kategorijā (piemēram, “steidzams”, “nepilnīgs”).
-
Apelācijas ceļš iedzīvotājam
- Ja AI ietekmē pakalpojuma pieejamību, jābūt cilvēka kontaktam un skaidram termiņam, kā kļūdu izlabot.
-
Regulārs ietekmes audits
- Ne reizi gadā “ķeksīša pēc”, bet regulāri: vai kļūdu īpatsvars ir lielāks noteiktām grupām (valoda, vecums, apkaime)?
Ja šie trīs nav iespējami, es parasti iesaku projektu samazināt vai pārorientēt uz drošāku lietojumu.
Ko mērīt, lai nepazustu galvenais
Tehniskie KPI (precizitāte, F1 rādītājs) ir svarīgi, bet publiskajā sektorā ar tiem nepietiek. “Pietiekami gudrs” KPI komplekts parasti ietver:
- Pakāpes laiks līdz rezultātam (piem., atbildes laiks iedzīvotājam)
- Kļūdu izmaksas (cik maksā viena nepareiza klasifikācija)
- Pieejamība (vai pakalpojums kļūst saprotamāks arī cilvēkiem ar zemāku digitālo pratību)
- Uzticība (sūdzību skaits, apelāciju īpatsvars, atkārtoto kontaktu īpatsvars)
Šī ir vieta, kur AI projekts kļūst par pārvaldības projektu — un tas ir labi.
Praktisks “smart enough” process: no idejas līdz darbībai 90 dienās
AI iniciatīvas publiskajā sektorā bieži iestrēgst starp stratēģiju un ieviešanu. Tāpēc strādā īss, disciplinēts cikls ar skaidru rezultātu.
1) Problēmas definīcija, kas nav tehnoloģijas definīcija
Uzrakstiet vienā teikumā: “Mēs samazināsim X, lai uzlabotu Y, līdz datumam Z.”
Piemērs: “Mēs samazināsim nepilnīgu būvniecības iesniegumu īpatsvaru par 30% 3 mēnešos, lai saīsinātu izskatīšanas laiku.”
2) Datu gatavības pārbaude (pirms modeļa)
- Vai dati ir strukturēti?
- Vai ir vienots klasifikators?
- Cik daudz ir izņēmumu?
- Vai ir vēsturiskas izmaiņas noteikumos, kas salauzīs apmācību?
Ļoti bieži “AI projekts” patiesībā ir datu kvalitātes projekts. Pieņemiet to laicīgi, un jūs ietaupīsiet mēnešus.
3) Cilvēks procesā: kur tieši notiek apstiprināšana
Definējiet vienu punktu, kur cilvēks vienmēr ir “pēdējais vārds”. Ne tāpēc, ka AI ir slikts, bet tāpēc, ka publiskie pakalpojumi prasa atbildību.
4) Pilots ar stingru robežu
Pilots ir labs tikai tad, ja tas nav bezgalīgs. Ielieciet robežas:
- viena nodaļa
- viena datu plūsma
- viens mērķis
- skaidra “stop/go” diena
5) Publiska komunikācija: ko sistēma dara un ko nedara
Uzticību ceļ konkrētība. Piemēram: “Sistēma iesaka prioritāti iesniegumiem; gala lēmumu pieņem darbinieks.” Šāds teikums ir daudz vērtīgāks nekā “mēs ieviešam AI”.
Satiksme un infrastruktūra: AI kā pakalpojuma kvalitātes instruments
Viedajās pilsētās AI bieži tiek saistīts ar satiksmes plūsmas analīzi, ielu apgaismojumu un uzturēšanu. Te “pietiekami gudri” nozīmē izvēlēties optimizāciju, kas iedzīvotājam ir jūtama.
Satiksmes plūsmas analīze: mazāk sastrēgumu, nevis vairāk kameru
Ja mērķis ir plūsma un drošība, fokusējieties uz:
- signālplānu pielāgošanu noteiktos koridoros
- sabiedriskā transporta prioritāti krustojumos
- incidentu ātrāku atklāšanu (piem., apstājusies plūsma)
Un nē — vairāk datu nav automātiski labāk. Pārāk plaša sekošana transportlīdzekļiem vai cilvēkiem var radīt privātuma riskus bez atbilstošas atdeves.
Infrastruktūras pārvaldība: uzturēšana pirms avārijas
Prognozējoša uzturēšana ir viena no retajām jomām, kur AI patiešām var būt “kluss darbarūķis”:
- ūdens zudumu anomāliju noteikšana
- bedru un seguma defektu prioritizēšana pēc riska
- enerģijas patēriņa anomālijas publiskajās ēkās
Šie ir lietojumi, kuros taisnīguma risks parasti ir zemāks, bet ieguvums — mērāms (mazāk avāriju, mazāk neplānotu remontu, stabilāki pakalpojumi).
Biežākie jautājumi par atbildīgu AI pašvaldībās
Vai “smart enough” nozīmē bremzēt inovācijas?
Nē. Tas nozīmē izvēlēties kaujas, kuras ir vērts izcīnīt. Publiskais sektors vinnē, kad AI projekti nonāk līdz stabilai ekspluatācijai, nevis paliek demo stadijā.
Kā panākt, lai AI uzlabotu pakalpojumu pieejamību, nevis radītu jaunu digitālo plaisu?
Projektējiet pakalpojumu daudzkanālu: AI asistents var palīdzēt tiešsaistē, bet vienmēr jābūt arī cilvēka atbalstam un skaidrai valodai (arī vienkāršajā valodā, ja iespējams).
Kas ir lielākais risks 2025.–2026. gadā?
Pārāk ātra pāreja uz automatizētu lēmumu pieņemšanu, kur nav skaidrs atbildīgais, nav apelācijas ceļa un nav regulāru auditu. Tehniski tas var “strādāt”, bet pārvaldības ziņā tā ir recepte krīzei.
Kas jādara nākamais, ja jūsu pilsēta grib būt “pietiekami gudra”
Ben Green ideja par tehnoloģiju kā līdzekli, nevis mērķi, ir tieši tas, kas šobrīd pietrūkst daudzām AI iniciatīvām publiskajā sektorā. Ja jūs veidojat risinājumus e-pārvaldei, satiksmei vai infrastruktūras pārvaldībai, uzlieciet sev vienu stingru kritēriju: AI ir vērtīgs tikai tad, ja iedzīvotājs to jūt kā labāku pakalpojumu — ātrāku, saprotamāku, taisnīgāku.
Ja jums jāizvēlas viens praktisks solis jau šonedēļ, es ieteiktu šo: paņemiet vienu aktuālu AI ideju un uzrakstiet tai “smart enough” kartīti ar trim punktiem — mērķis, risks, mērījums. Ja nevarat to izdarīt skaidri, ideja vēl nav gatava iepirkumam.
Kā jūs savā pašvaldībā šobrīd atšķirat projektus, kas ir “iespaidīgi”, no tiem, kas patiešām uzlabo publiskos pakalpojumus?