AI በትምህርት ሲገባ፡ ግልጽነትና ሥነ-ምግባር መጀመሪያ

አርቲፊሻል ኢንተሊጀንስ በመንግስታዊ አገልግሎቶች ዲጂታላይዜሽን••By 3L3C

AI በትምህርት ፖርታሎች ሲገባ ግልጽነትና ሥነ-ምግባር የማይተዉ መሠረቶች ናቸው። ይህ ጽሁፍ ለተቋማት ተግባራዊ መመሪያ ይሰጣል።

AI ሥነ-ምግባርየትምህርት ቴክኖሎጂየመረጃ ጥበቃመንግስታዊ ፖርታሎችዳታ አስተዳደርአካዳሚክ ነፃነት
Share:

Featured image for AI በትምህርት ሲገባ፡ ግልጽነትና ሥነ-ምግባር መጀመሪያ

AI በትምህርት ሲገባ፡ ግልጽነትና ሥነ-ምግባር መጀመሪያ

19/12/2025 ላይ በአሜሪካ የከፍተኛ ትምህርት ዘርፍ ውስጥ አንድ ነገር ግልፅ ሆነ፤ AI እና ዳታ ትንታኔ ቴክኖሎጂ በመንግስታዊ የትምህርት አገልግሎቶች ውስጥ ሲገባ ጥቅሙ ብቻ አይደለም የሚያስፈልገው—ግልጽነት፣ ሥነ-ምግባር እና ተጠያቂነት ይጠየቃሉ። የዩኒቨርሲቲ ፕሮፌሰሮች አማካይነት ድርጅት (AAUP) ለትምህርት ሚኒስቴር ዘርፍ ተመሳሳይ የሆነ የመንግስት መ/ቤት ከPalantir ጋር በተያያዘ ውል ላይ ሲሰራ እንዳለ ሲያሳስብ ጉዳዩ በመጠን አለመዘንጋቱን አሳየ።

ይህ ክርክር በአንድ የመረጃ መመዝገቢያ ፖርታል (ዩኒቨርሲቲዎች ከውጭ ምንጮች የሚቀበሉትን ስጦታና ውሎች ለመከታተል የተዘጋጀ) ላይ የታየ ምልክት ጀምሮ ተነሳ። ከግል ኩባንያ ምልክት ወደ መ/ቤት ምልክት በፍጥነት መቀየሩ የ“እውነት ምንድን ነው?” ጥያቄ እንዲቆም አደረገ። በተግባር ይህ ለእኛ በኢትዮጵያ እና በክልሎች ውስጥ በፍጥነት የሚካሄድ የመንግስታዊ አገልግሎቶች ዲጂታላይዜሽን ውይይት ላይ በግልጽ መንገድ የሚያተኩር ትምህርት ነው፤ ቴክኖሎጂ አገልግሎትን ያፋጥናል፣ ቢሮክራሲን ያሳነሳል—ነገር ግን የመረጃ መብትን እና የትምህርት ነፃነትን ካላጠበቀ እንደ ሰው ተሞክሮ ይመለሳል።

የPalantir ጉዳይ ትምህርት ዘርፍን ለምን አነሳ?

መልስ በመጀመሪያ፡ ጉዳዩ ስለ “መረጃ ማስተዳደር” ብቻ አይደለም—ስለ የመንግስት አገልግሎት ዲጂታላይዜሽን ሲደረግ የግል ኩባንያ ሚና እና መጠን እንዴት እንደሚገደብ ነው።

በተገለጸው ዜና መሠረት ፖርታሉ የከፍተኛ ትምህርት ተቋማት ከውጭ አካላት የሚቀበሉትን ከፍተኛ የገንዘብ ድጋፍ/ስጦታ እና ውሎች እንዲመዘገቡ ይጠይቃል። ከ$250,000 በላይ የሚሆን የአመት ክፍያ በህግ (Section 117) መመዝገብ አለበት ተብሏል። በአንድ በኩል ይህ የግልጽነት ስርዓት ነው፤ በሌላ በኩል የመረጃ ማከማቻ፣ መለያየት እና ትንታኔ መንገድ በማን እጅ እንደሚሆን በጣም ያስፈልጋል።

AAUP የጠየቀው “እኛ ግልጽነት እንፈልጋለን” የሚለው ነገር አንድ ነጥብ ላይ ይቆማል፤ ምን ዓይነት ዳታ እየተሰበሰበ ነው? ማን ይጠቀማል? ምን ይወስናል? እንዴት ይቆጣጠራል? ይህ የAI በትምህርት እና በስልጠና ዘርፍ እያለ ትክክለኛ መንገድ የማስገባት ውይይት ነው።

ግልጽነት ሲጎድል የሚከፍለው ዋጋ

መልስ በመጀመሪያ፡ ግልጽነት ካልተቀመጠ እምነት ይቀንሳል፣ እምነት ሲቀንስ ዲጂታላይዜሽን ይቆማል።

የመንግስት ዲጂታል ፖርታሎች እንዲሠሩ ማስፈራራት አያስፈልግም፤ እምነት ያስፈልጋል። ለዩኒቨርሲቲዎች ወይም ለትምህርት ተቋማት “የውጭ ገንዘብ መመዝገብ ግዴታ ነው” ብሎ መንግስት ሲያስገባ፣ ቴክኖሎጂው ከጦር/የደህንነት ስራ ጋር የተጎዳኘ ስም ካለው ኩባንያ ጋር ተያይዞ እንደሚነገር ከሆነ፣ መልኩ ከ“ህግ ማስፈፀም” ወደ “ክትትል” ይቀየራል። ይሄ በትምህርት ዘርፍ ውስጥ በተለይ የሚያስፈራው ነገር ምክንያቱም የአካዳሚክ ነፃነት የሚባለው ነገር በማስተማር፣ በምርምር እና በማብራሪያ ውስጥ እውነተኛ አካባቢ ስላለው ነው።

AI በመንግስታዊ ዲጂታላይዜሽን ውስጥ ሲጠቀም የሚለወጡ 3 ነገሮች

መልስ በመጀመሪያ፡ AI ሲገባ አገልግሎት ፍጥነት ይጨምራል፣ ነገር ግን ውሳኔ ሂደት፣ የመረጃ ይዞታ እና ተጠያቂነት የሚባሉ መሠረቶች በግልፅ መመሪያ መመራት አለባቸው።

1) ውሳኔ ከ“ሰው ብቻ” ወደ “ስርዓት+ሰው” ይቀየራል

የእውነት ችግኝ እዚህ ነው፤ ሰው የሚወስነው ነገር እንኳ በAI ስርዓት አስተያየት ይቀላቀላል። የውጭ ስጦታ መመዝገብ ቀጥታ የሚሰራ ሲመስልም፣ በኋላ የሚመጡ ትንታኔዎች (ምሳሌ፦ በየተቋሙ የ“አደጋ ክልል” መመደብ፣ የተጨማሪ ኦዲት መመርጥ) እጅግ የፖሊሲ አጋጣሚ ሊፈጥሩ ይችላሉ። ስለዚህ ሰው-በኩል ማረጋገጥ (human review) እና ተገላጭ መስፈርት አያስፈልጉ? ይጠቅማሉ።

2) የመረጃ ይዞታ (Data ownership) ዋና ጉዳይ ይሆናል

መረጃ ማን ነው የሚያስተዳድረው? እስከ ምን ድረስ ይያዛል? ከዚያ በላይ እንዴት ይጠቀማል? ይሄ በመንግስታዊ ፖርታሎች ውስጥ በተለይ አጠቃላይ መመሪያ የሚፈልግ ጉዳይ ነው። በትምህርት ዘርፍ ይህ በማዕከላዊ ችሎታ የማስተዳደር ሙከራ ከሆነ በጣም የተሳሳተ እርምጃ ይሆናል፤ መረጃ የዜጎች እና የተቋማት ነው፣ መንግስት የሚያስተዳድረው በእርሱ ስር ተጠያቂነት ብቻ ነው።

3) ተጠያቂነት ከ“የውል ቃል” በላይ ይሄዳል

AAUP ያነሳው “ስንት ይከፈላል? ምን ይሠራል?” የሚለው ጥያቄ የሚያመለክተው ነገር አንድ ነው፤ የመንግስት ውል ብቻ አብዛኛውን ጊዜ ለህዝብ መልስ አይሆንም። የAI ስርዓቶች ምርመራ (audit)፣ የአደጋ ግምገማ (risk assessment) እና የግል መረጃ ጥበቃ እቅድ በውሉ ውስጥ ግልፅ መግባት አለበት።

ለትምህርት እና ስልጠና ተቋማት የሚረዱ 7 የተግባር ሥነ-ምግባር መስፈርቶች

መልስ በመጀመሪያ፡ AI በትምህርት ስርዓት ውስጥ መግባት ይቻላል—ነገር ግን ከመጀመሪያው ቀን ጀምሮ መመሪያ እና መከታተያ ካልተቀመጠ አደጋ ይከፍላሉ።

እኔ የማየው ተግባራዊ አቅጣጫ ይህ ነው፤ መንግስት ፖርታል ይሁን የዩኒቨርሲቲ ውስጥ ስርዓት—እነዚህ ነጥቦች ካልተጻፉ እና ካልተፈተሹ ስርዓቱ የማይታመን ይሆናል።

  1. የዓላማ ግዴታ (Purpose limitation): የሰበሰበው መረጃ ለተጠቀሰው አገልግሎት ብቻ እንዲውል በግልፅ ይጻፍ።
  2. ዝቅተኛ መረጃ መሰብሰብ (Data minimization): የማይፈለገውን አትሰብስብ፤ ብዙ መረጃ ማከማቸት የደህንነት ችግኝ ይጨምራል።
  3. የተጠቃሚ መብት: ተቋማት/ተጠቃሚዎች መረጃቸውን ማየት፣ ማስተካከል እና ስህተት ሲኖር መያዝ እንዲችሉ ሂደት ይኑር።
  4. ስርዓት ምርመራ (Independent audit): ቢያንስ በዓመት 1 ጊዜ የደህንነት እና የአልጎርይዝም ምርመራ ይደረግ።
  5. አስተያየት እና ተጠያቂ መስመር: ችግኝ ሲፈጠር “ማን ይመልሳል?” በቀጥታ የሚታወቅ መሆን አለበት።
  6. የሰው መጨረሻ ቃል (Human-in-the-loop): ከፍተኛ ተፅእኖ ያለው ውሳኔ (ምሳሌ፦ ተጨማሪ ኦዲት/ቅጣት መምረጥ) በሰው እንዲረጋገጥ አድርግ።
  7. የግል መረጃ ጥበቃ እና ኢንክሪፕሽን: የተጠቃሚ መለያ መረጃ፣ የውል ማስረጃ እና ሌሎች ሰነዶች በበለጠ ደህንነት መጠበቅ አለበት።

አጭር አንቀጽ ለማስታወስ፦ “AI ስርዓት ከተቆጣጠረ ቢሮክራሲን ያሳነሳል፤ ካልተቆጣጠረ ደግሞ ቢሮክራሲን ወደ ዲጂታል ያዛውራል።”

ለመንግስት እና ለፖሊሲ ተወላጅ የሆነ መንገድ፡ በውል በላይ የሚቆም መመሪያ

መልስ በመጀመሪያ፡ ከግል ኩባንያ ጋር መስራት ራሱ ችግኝ አይደለም—ችግኙ መንግስት የራሱን የAI አስተዳደር መዋቅር ካላቆመ ነው።

Palantir ጉዳይ አንድ የፖሊሲ መልዕክት ይሰጣል፤ መንግስት አገልግሎት ሲዲጂታላይዝ ለ“እቃ ግዢ” ልክ አይመለከትም—ለ“እምነት ግንባታ” ይመለከታል። ከዚህ የሚከተሉት ነገሮች በተግባር ሊያገለግሉ ይችላሉ፦

  • የመንግስት ዳታ መመሪያ (Data governance policy): መረጃ መያዝ፣ መጠቀም፣ መጥፋት (retention & deletion) የሚያስተዳድር ግልፅ ህጋዊ መስፈርት።
  • የAI አደጋ ግምገማ ቀደም ሲል: የፖርታሉ ስርዓት እንዲጀምር በፊት የግል መረጃ እና የመብት ተፅእኖ ግምገማ መደረግ።
  • የግዢ ግልጽነት: የስራ ክልል እና የክፍያ መዋቅር በህዝብ ዘንድ መገለጽ (ቢያንስ በአጠቃላይ መጠን)።
  • የተጠቃሚ ግብረመልስ መሾመር: ተቋማት ችግኝ ሲያጋጥማቸው በፍጥነት የሚደርስ ቴክኒክ እና ፖሊሲ መልስ።

እንዲሁ ለትምህርት ተቋማት የሚመከር ነገር አለ፤ መንግስት ፖርታል ቢሆንም የተቋሙ የውስጥ ፖሊሲ መኖር አለበት—ምን እንሰጣለን? ምን አንሰጥም? ማን ያጸድቃል?

ብዙ ሰዎች የሚጠይቁት ጥያቄዎች (አጭር መልስ)

“AI ከግል ኩባንያ ጋር መስራት ክፉ ነው?”

አይደለም። ክፉ የሚያደርገው ነገር የውል ውስጥ የመረጃ መብት፣ የምርመራ መንገድ እና የተጠያቂነት መስመር ካልተጠናከረ ነው።

“የውጭ ገንዘብ ግልጽነት በራሱ አያስፈልግም?”

ያስፈልጋል። ነገር ግን የግልጽነት ስርዓት እንደ “ቅጣት መሳሪያ” ሳይታይ እንደ “መተማመኛ መሠረት” መንገዱ መገለጽ አለበት።

“ትምህርት ዘርፍ ውስጥ የAI ስኬት መለኪያ ምንድን ነው?”

አንድ መለኪያ ብቻ አይደለም። ከፍተኛ መለኪያዎች እነዚህ ናቸው፦ የአገልግሎት ጊዜ መቀነስ (turnaround time)፣ የስህተት መጠን መቀነስ፣ የተጠቃሚ እምነት/ተስፋ መጠን እና የመረጃ ደህንነት መደበኛ መሆን።

የዛሬ መልዕክት፡ AI በትምህርት እና በመንግስታዊ አገልግሎት ሲገባ መርህ አይጎድል

የPalantir እና AAUP ክርክር በአሜሪካ ውስጥ ቢነሳም፣ መልዕክቱ አለም አቀፍ ነው፤ የመንግስታዊ አገልግሎቶች ዲጂታላይዜሽን በፍጥነት ሲቀጥል ማንኛውም አገር በትምህርት ስርዓት ውስጥ የAI አጠቃቀም ሲያስፋፋ ይህን ጥያቄ መመለስ ይገባዋል፤ “ቴክኖሎጂው ህዝብን ያገለግላል ወይስ ህዝብ ቴክኖሎጂን እንዲያገለግል ይገደዳል?”

እርምጃ ለመውሰድ ቀላል መንገድ አለ፤ ተቋማት የውስጥ የAI እና የመረጃ ፖሊሲ ይፃፉ፣ መንግስት ፖርታሎች ለህዝብ ግልጽ የሆነ የመረጃ መመሪያ ይዘጋጁ፣ የስርዓት ምርመራ እና ተጠያቂነት መስመር ያጠናክሩ። ይህ ብቻ ሳይሆን የAI በትምህርትና በስልጠና ዘርፍ የሚፈለገውን እምነት ይገነባል—እምነት ቢኖር ዲጂታል አገልግሎት ይሰራል።

እርስዎ በተቋማችሁ ውስጥ AI ስርዓት ሲገባ በመጀመሪያ ምንን ነገር በጽሁፍ መያዝ እንዳለበት ታስባላችሁ—የመረጃ መብትን, የምርመራ ሂደትን, ወይስ የውሳኔ ተጠያቂነትን?