በትምህርት ውስጥ AI ሲገባ ግልጽነት እና የግል መረጃ መብት አይዘንጋ። ከPalantir ጉዳይ ተግባራዊ መመሪያዎችን ያግኙ።

በትምህርት ውስጥ AI ግልጽነት፡ ከPalantir ጉዳይ ትምህርት
19/12/2025 በአሜሪካ የዩኒቨርሲቲ መምህራን ማህበር (AAUP) አንድ ነገር በግልፅ አስቀምጧል፤ “ትምህርት ዘርፍ እንደ ደህንነት ስጋት እየታየ ነው” የሚል ስሜት እየጠነከረ ነው። የሚነሳው ጉዳይ የትምህርት ሚኒስቴር ዓይነት ያለ የመረጃ ፖርታል (foreign funding portal) ላይ ከPalantir ጋር ተያይዞ የታየ ስምና ሎጎ ነው። በእርግጥ መንግስታዊ አገልግሎቶች ዲጂታላይዜሽን ሲፈጠን እንዲህ ዓይነት ግጭቶች መታየታቸው አዲስ አይደለም፤ ነገር ግን ከAI ጋር ሲያያዝ ውይይቱ ይበልጥ ጥልቅ ይሆናል።
እዚህ የሚያስጨንቀው በ“ቴክኖሎጂ ብቻ” ላይ የሚቆም ነገር አይደለም። ማን እየገነባው ነው? ምን መረጃ ይሰበስባል? እንዴት ይጠቀማል? ማን ይመርምረዋል? እነዚህ ጥያቄዎች መልስ ካልነበራቸው ዲጂታላይዜሽን የሚቀንስበት ቢሮክራሲ ተብሎ የተጀመረ ፕሮጀክት በመጨረሻ አስተማሪዎችንና ተማሪዎችን የሚያስፈራ የክትትል መሣሪያ ሊሆን ይችላል። ይህ ጽሑፍ የPalantir ጉዳይ እንዴት የAI ስነ-ምግባር እና የግል መረጃ መብት ውይይትን እስከ ዩኒቨርሲቲ እና ስልጠና ኢኮሲስተም ይዞ እንደሚገባ ይገልጻል፣ እና በተግባር ለመንግስት ተቋማት፣ ለትምህርት ተቋማት እና ለአገልግሎት አቅራቢዎች የሚረዱ መመሪያዎችን ይሰጣል።
Palantir ጉዳይ በአንድ እጅ ምን ይናገራል?
ዋናው ነጥብ ይህ ነው፤ የትምህርት ዳታ መዋቅር ሲለዋወጥ ግልጽነት ካልተከበረ እምነት ይፈርሳል። AAUP ያነሳው ስጋት ከመረጃ ፖርታሉ ላይ የታየ ሎጎ እና መልዕክት ጀምሮ ነው። መንግስት በኋላ በ“ያለፈ ጊዜ” አካል ቋንቋ እየተናገረ Palantir እንደ “ንዑስ ተቋራጭ” ተሳትፎ እንዳደረገ ገልጿል፤ ነገር ግን የክፍያ መጠን እና ትክክለኛ የስራ ድርሻ አልተገለጸም።
በፖርታሉ አላማ ላይ ልንስማማ እንችላለን፤ ለምሳሌ በ1965 የተደነገገው የHigher Education Act ክፍል 117 መሠረት በአንድ ዓመት ከውጭ ምንጭ ከ$250,000 በላይ የሚገኝ ስጦታ/ውል መመዝገብ ግዴታ ነው። ነገር ግን አላማ ትክክል ቢሆንም የመፈጸሚያ መንገድ በግልጽነት ካልተመራ ህጋዊ መስፈርት እራሱ የክትትል ጥርጣሬን ሊፈጥር ይችላል።
ለምን ይህ በAI ውይይት መሀል ይወድቃል?
Palantir እንደ “AI እና ዳታ ትንተና” ኩባንያ በመታወቁ ብቻ ሳይሆን፣ ከወታደራዊ እና ከኢሚግሬሽን የተያያዘ ስራ ታሪክ ስለሚነሳ ነው። ትምህርት ዘርፍ ለብዙ ሰዎች “የህዝብ ጥቅም” ነው፤ የደህንነት አጀንዳ ደግሞ ከፍተኛ ስልጣን እና ዝርዝር ክትትል ይዞ ይመጣል። እነዚህ ሁለት በአንድ መስመር ላይ ሲገናኙ ግጭት ይፈጠራል።
አጭር ንግግር እንዲህ ነው፦ የትምህርት ዳታ ወደ ደህንነት ዳታ ቋንቋ ከተቀየረ የካምፓስ እምነት ይሰበራል።
የመንግስታዊ ዲጂታላይዜሽን ውስጥ “ግልጽነት” ባይኖር ምን ይከሰታል?
መልሱ ቀጥታ ነው፤ ተጠቃሚ መብት ይዳክማል፣ እምነት ይቀንሳል፣ ተቋማት የማስረጃ ጭነት ይጨምራሉ። በትምህርት መስክ ብቻ ሳይሆን በማንኛውም ዲጂታል መንግስት አገልግሎት ውስጥ ግልጽነት የሚጠፋ ጊዜ እነዚህ ተመሳሳይ ጉዳቶች ይታያሉ።
1) የ“ስም ብቻ” ግልጽነት አይበቃም
ብዙ ፕሮጀክቶች የአቅራቢ ስም ሲጠቅሙ “ግልጽ ነን” ይላሉ። እውነቱ? አይበቃም። ከስም በላይ የሚያስፈልገው ይህ ነው፦
- የስራ ድርሻ (scope): አቅራቢው የሚጠቀምበት መረጃ ምንድን ነው?
- የማከማቻ ፖሊሲ: ዳታ ስንት ጊዜ ይቆያል?
- የመዳረሻ መብት: ማን ማን ያያል?
- የአልጎሪዝም ተጽእኖ: አውቶማቲክ ውሳኔ ይሰጣል ወይስ ለሰው ውሳኔ መረጃ ብቻ ይዘጋጃል?
2) የዓላማ መዘርጋት (Purpose Creep)
የተለመደ ክስተት ነው፤ ስርዓት በአንድ ዓላማ ይጀምራል—ለምሳሌ “የውጭ ገንዘብ ግልጽነት”—ከዚያ በኋላ በጸጥታ የሌሎች ዓላማዎች መሣሪያ ይሆናል። ካምፓስ ውስጥ ለተማሪዎች እና ለአስተማሪዎች ይህ ማለት ይችላል፦
- ተመራማሪ እንቅስቃሴ በ“ስጋት” ቋንቋ መተርጎም
- የአካዳሚ ነፃነት መገደብ
- በመረጃ ተመስርቶ የሚመጡ የቅጣት ሂደቶች መጨመር
3) የአስተማሪ/ተቋም እምነት የመንግስት ንብረት ነው
በዚህ ተከታታይ ርዕስ (AI በመንግስታዊ አገልግሎቶች ዲጂታላይዜሽን) የሚነገረው አንድ ዋና ነገር አለ፤ ዲጂታል አገልግሎት ያለ እምነት አይኖርም። ሰዎች ስርዓቱን ካልተማመኑ መረጃ ማስገባት ይቀንሳሉ፣ የተሳሳተ ሪፖርት ይጨምራሉ፣ እና የህግ ተከታታይ ወጪ ይወጣል።
በትምህርት እና ስልጠና ዘርፍ የAI ሥነ-ምግባር መመሪያ (ሊተገበር የሚችል)
ዋናው መልስ እንዲህ ነው፤ AI ከግል መረጃ መብት፣ ከአካዳሚ ነፃነት እና ከተጠያቂነት መስፈርቶች ጋር ተጣጣሚ ሆኖ መግባት አለበት። እኔ በተቋማት ውስጥ የሚሰሩ ቡድኖች ሲጀምሩ የሚረዳቸውን መሠረታዊ ቼክሊስት እንዲህ አድርጌ እመክራለሁ።
የኮንትራት እና ግልጽነት መስፈርቶች
- አቅራቢ/ንዑስ አቅራቢ ዝርዝር ግልጽነት: ማን ምን ያደርጋል በጽሑፍ ይቀመጥ።
- የክፍያ እና የስራ ድርሻ መግለጫ: ከ“እንሰራለን” በላይ የሚለካ መለኪያ (deliverables, SLA) ይኖር።
- የመረጃ ግላዊነት ውሎች: ዳታ በስርዓት ውስጥ እንዴት ይንቀሳቀሳል እና ወዴት ይከማቻል በግልጽ ይጻፍ።
የመረጃ አነስተኛነት (Data Minimization)
- የሚያስፈልገውን ብቻ ሰብስቡ፤ ቀናተኛ እንጂ ዝርዝር አይደለም።
- የግል መረጃ ካስፈለገ ብቻ ይጨምር፤ የተቋም ደረጃ ዳታ በብዛት በቂ ነው ብዙ ጊዜ።
የአልጎሪዝም ተጠያቂነት (Accountability)
- “ሰው በውሳኔ ውስጥ” ደንብ: የሚያስገድድ/የሚቀጣ ውሳኔ በአውቶማቲክ አይሁን።
- የማብራሪያ መብት: ተቋም ወይም ግለሰብ ውጤቱ “እንዴት ተደረሰ” ማወቅ አለበት።
- የቅሬታ መንገድ: ስርዓቱ ስህተት ሲያደርግ የሚሰራ ሂደት ይኖር።
ለመንግስት እና ለትምህርት ተቋማት የተግባር መመሪያ (30-60-90 ቀን)
መጀመሪያ እንዲህ ነው፤ ተቋማት ስርዓት ከመግባቱ በፊት መጠየቅ ያለባቸው ጥያቄዎች አሉ። ለቀላል እንቅስቃሴ በ30-60-90 ቀን መርሃ ግብር እነዚህን አድርጉ።
በ30 ቀን
- የዳታ ካርታ ስሩ፤ የትኛው መረጃ ከየት ወደ የት እንደሚሄድ ይጻፉ።
- የስራ ድርሻ ማብራሪያ ጠይቁ (ከተቋራጭ እና ንዑስ ተቋራጮች)።
- የውስጥ AI አስተዳደር ቡድን (ህግ/IT/አካዳሚ/ግል መረጃ) አቋቁሙ።
በ60 ቀን
- የግል መረጃ ተጽእኖ ግምገማ (privacy impact) ያቅርቡ።
- አግባብ ካለው የግልጽነት መግለጫ ለአስተማሪዎች/ተማሪዎች ያዘጋጁ (ምን ይሰበስባል፣ ለምን፣ ስንት ጊዜ)።
- የአካዳሚ ነፃነት መጠበቂያ ደንብ በፖሊሲ ውስጥ ግቡት።
በ90 ቀን
- ገለልተኛ ኦዲት ያድርጉ (ደህንነት፣ ዳታ ጥራት፣ የመዳረሻ መብት)።
- የሪፖርት ሰነድ እና የክትትል እሴቶች (KPIs) ያቀናብሩ።
- የመውጫ ዕቅድ (vendor exit plan): አቅራቢ ሲቀየር ዳታ እንዴት እንደሚመለስ/እንደሚሰረዝ አስቀምጡ።
“AI በትምህርት መስክ እንደ ሌሎች መስኮች መመዘን አለበት?” በቀጥታ መልስ
አዎ—እና በአንድ አይነት እስታንዳርድ ብቻ አይበቃም። ትምህርት ዳታ የህይወት እድል ዳታ ነው፤ አንድ የተሳሳተ መለያየት ከእርዳታ እስከ ስኮላርሺፕ እና እስከ ስራ ድረስ ተፅእኖ ሊኖረው ይችላል። ስለዚህ በመንግስታዊ ፖርታሎች ውስጥ የሚገባ ስርዓት የሚከተለውን ቢያንስ መሟላት አለበት፦ ግልጽነት፣ አነስተኛ መረጃ ሰብስብ፣ የሰው ቁጥጥር፣ ኦዲት እና የቅሬታ መንገድ።
ታሪኩ እንዲህ ይነግራል፤ ዲጂታላይዜሽን ቢሮክራሲን ለመቀነስ እድል ነው፣ ግን የተጠቃሚ መብት ካልተጠበቀ የጉዳት ማጉላት ይሆናል። የPalantir ጉዳይ ከአሜሪካ ዩኒቨርሲቲዎች ብቻ በላይ ለማንኛውም ሀገር የሚሰጥ መልእክት አለው፤ የAI ስርዓት በመንግስት አገልግሎት ውስጥ ሲገባ ግልጽነት የፕሮጀክቱ ክፍል ነው—not “በኋላ እንደምንጨምር” ነገር።
እርስዎ በትምህርት/ስልጠና ተቋም ወይም በመንግስት ፕሮጀክት ላይ የAI መፍትሄ ሲያስገቡ እነዚህን አራት ነገሮች በአንድ ሐረግ ያስቡ፦ “ምን እንሰብስባለን? ለምን? ማን ያያል? እንዴት እንጠየቃለን?” እነዚህ ጥያቄዎች በግልጽ መልስ ካላገኙ ዲጂታል መፍትሄው በጣም ፈጣን ሲሆን እንኳን የሚያደርሰው ጉዳት ፈጣን ይሆናል።
እርስዎ ተቋማችሁ የAI ፖርታሎችን ሲገነባ ወይም ሲገዛ የግልጽነት መስፈርት እንዴት ይመስላችኋል—ኮንትራት ውስጥ የማይጎድለው ምን ነገር ነው?