ตัวอย่างปัญหาจากการใช้ปัญญาประดิษฐ์ในโครงการ “ เราไม่ทิ้งกัน” คือบทเรียนสำคัญของการใช้ปัญญาประดิษฐ์ที่อยู่บนความคาดหวังของผู้คนที่กำลังอยู่ในความทุกข์ จึงส่งผลกระทบเป็นวงกว้าง ซึ่งไม่เพียงลดทอนความเชื่อถือต่อระบบงานของภาครัฐเท่านั้น แต่ยังส่งผลกระทบต่อความเชื่อมั่นต่อเครื่องมือที่นำมาใช้คัดกรอง และประมวลผลอีกด้วย เป็นเรื่องสำคัญที่รัฐต้องสร้างความเข้าใจแก่ประชาชน
“มนุษย์คาดหวังความฉลาดจากปัญญาประดิษฐ์มากจนเกินไป ทั้งๆ ที่ปัญญาประดิษฐ์ไม่ได้ฉลาดอย่างที่คิด ปัญญาประดิษฐ์ไม่เข้าใจโลก ปัญญาประดิษฐ์ไม่เข้าใจมนุษย์ และปัญญาประดิษฐ์ไม่ได้ฉลาดเท่ากับเด็กอายุ 6 เดือนด้วยซ้ำไป"
ยอชัว เบนจิโอ ศาสตราจารย์ แห่งมหาวิทยาลัยมอนทรีออล ประเทศแคนาดา หนึ่งในผู้ได้รับรางวัล Turing Award ปี 2018
พิษจากโควิด -19 มิได้ส่งผลกระทบต่อสุขภาพของมนุษย์เท่านั้น แต่ยังส่งผลกระทบต่อเศรษฐกิจและความเป็นอยู่ของผู้คนทุกระดับ รัฐบาลจำเป็นต้องออกมาตรการช่วยเหลือประชาชนผ่านโครงการ “เราไม่ทิ้งกัน” เพื่อเยียวยาผู้คนบางอาชีพที่ได้รับผลกระทบจากพิษเศรษฐกิจ โดยให้ลงทะเบียนผ่านช่องทางอินเทอร์เน็ตเหมือนกับโครงการ ชิม ช้อบ ใช้ เมื่อปีที่แล้ว
โครงการ “เราไม่ทิ้งกัน” คือหนึ่งในมาตรการสำคัญที่น่าจะบรรเทาความเดือดร้อนให้แก่ผู้คนไม่มากก็น้อย เพราะเม็ดเงินจะส่งตรงไปยังบัญชีของผู้ที่ลงทะเบียนสำเร็จและสามารถตรวจสอบได้ นอกจากนี้กระบวนการคัดกรองบุคคลที่ลงทะเบียน ซึ่งผู้รับผิดชอบมักจะออกมาให้ข่าวอยู่เสมอว่าจะใช้ปัญญาประดิษฐ์ (Artificial Intelligence :AI) ในการประมวลผลข้อมูลก็น่าจะสร้างความมั่นใจต่อผู้ขอรับการเยียวยาได้ในระดับหนึ่ง เพราะปัญญาประดิษฐ์สามารถประมวลผลข้อมูลจำนวนมหาศาลด้วยความรวดเร็วมากกว่ามนุษย์หลายพันเท่าและน่าจะมีความผิดพลาดต่ำกว่าการใช้มนุษย์ในการคัดกรองผู้ลงทะเบียน นับเป็นก้าวสำคัญของภาครัฐที่เริ่มนำเทคโนโลยีปัญญาประดิษฐ์มาใช้งาน
การนำปัญญาประดิษฐ์มาใช้ลงทะเบียนโครงการ “เราไม่ทิ้งกัน” จึงเป็นความหวังของผู้คน ซึ่งโดยหลักการน่าจะช่วยให้ขั้นตอนของการขอรับเงิน 5,000 บาทครั้งนี้ เป็นไปด้วยความรวดเร็วและมีประสิทธิภาพ แต่เมื่อผลลัพธ์ออกมาในทางตรงกันข้าม คลื่นแห่งความไม่พอใจจากทั่วสารทิศจึงหลั่งไหลไปสู่กระทรวงการคลัง ไม่เว้นแม้แต่ปัญญาประดิษฐ์ที่โดนหางเลขไปด้วย
ผู้ลงทะเบียนจำนวนไม่น้อยลงทะเบียนในโครงการ “ เราไม่ทิ้งกัน “ ไม่สำเร็จ เช่น ได้รับแจ้งว่า บัตรประชาชนไม่ถูกต้องหรือมีอาชีพเกษตรกรรมหรือเป็นนักศึกษา ซึ่งเป็นข้อมูลที่ไม่ตรงกับความเป็นจริงและกลายเป็นผู้ไม่อยู่ในข่ายการพิจารณาได้รับการเยียวยาตามที่เป็นข่าวตามสื่อทั่วไป
กรณีเช่นนี้เข้าใจว่า น่าจะเกิดจากความผิดพลาดจากการหยิบข้อมูลมาใช้ไม่ถูกต้องหรือเกิดจากระบบการคัดกรองไม่ได้นำข้อมูลเดิมมาเชื่อมโยงกับสถานะหรืออาชีพของบุคคลในปัจจุบัน
อย่างไรก็ตามปฏิเสธไม่ได้เลยว่า ขั้นตอนการลงทะเบียน โครงการ “เราไม่ทิ้งกัน” ไม่ใช่เรื่องง่ายสำหรับประชาชนทั่วๆ ไป และมีระดับความยากจนกระทั่งต้องมีอาชีพรับจ้างลงทะเบียนในอัตรา 1,000 บาทต่อหัว นอกจากนี้โครงการ “ เราไม่ทิ้งกัน” ยังได้ซ้ำเติมความเหลื่อมล้ำทางดิจิทัลให้กับผู้ที่เข้าไม่ถึงอินเทอร์เน็ต ซึ่งน่าจะมีจำนวนนับล้านคนด้วยเช่นกัน
การที่ปัญญาประดิษฐ์ถูกโหมกระแสจากสื่อต่างๆ ในช่วง 4-5 ปีที่ผ่านมาทำให้ผู้คนเกิดความมั่นใจว่า ปัญญาประดิษฐ์สามารถจะแก้ไขปัญหาทุกอย่างแบบเบ็ดเสร็จได้ แต่ปัญญาประดิษฐ์ยังมีข้อจำกัดที่อาจไม่สามารถให้คำตอบทุกอย่างแก่มนุษย์ได้ด้วยเหตุผลอย่างน้อยที่สุด ดังต่อไปนี้
1. ปัญญาประดิษฐ์ถูกสร้างกระแสให้มีความฉลาดเกินความเป็นจริง ทั้งๆ ที่ปัญญาประดิษฐ์ในปัจจุบันสามารถทำงานได้เฉพาะอย่างหรือที่เรียกกันว่าปัญญาประดิษฐ์ขั้นต้น (Narrow Artificial Intelligence) เท่านั้น ปัญญาประดิษฐ์จึงไม่สามารถรอบรู้ความเป็นไปของโลกได้ดังเช่นมนุษย์ ไม่สามารถเข้าใจในสิ่งที่อ่านหรือพูดได้และไม่สามารถแก้ไขปัญหาครอบจักรวาลได้
2. ปัญญาประดิษฐ์ต้องใช้ข้อมูลจำนวนมากในการประมวลผล หากข้อมูลที่ได้รับมีความคลาดเคลื่อน ไม่ว่าจะด้วยเหตุผลใดก็ตาม เช่น ข้อมูลมีคุณภาพต่ำ ข้อมูลไม่ครบถ้วน ข้อมูลหมดอายุ ข้อมูลไม่อัปเดต ฯลฯ ผลลัพธ์ที่ได้ก็จะมีความคลาดเคลื่อนเช่นเดียวกันและกระบวนการ ซึ่งได้มาของข้อมูลนั้นเกี่ยวข้องกับมนุษย์ ซึ่งเป็นผู้นำข้อมูลมาใช้ ข้อมูลจึงอาจถูกบิดเบือนให้เกิดผลลัพธ์ไปในทางใดทางหนึ่งได้เสมอไม่ว่าจะด้วยความตั้งใจหรือไม่ตั้งใจก็ตาม
3. ปัญญาประดิษฐ์ทำงานด้วยอัลกอริทึม (ลำดับคำสั่งที่บอกให้คอมพิวเตอร์ทำงาน) หากอัลกอริทึมถูกออกแบบด้วยความลำเอียงหรืออยู่บนสุมมุติฐานที่ไม่ถูกต้องหรือไม่ชัดเจน ผลลัพธ์ที่ได้ก็จะคลาดเคลื่อนจากความเป็นจริง
4. ปัญญาประดิษฐ์จำนวนมาก มักถูกออกแบบมาเพื่อแก้ปัญหาระยะสั้น และมักไม่ได้อยู่บนการรับประกันทางวิศวกรรมในระดับวิกฤติ (Critical layer of engineering guarantee) ดังเช่นวิศวกรรมแขนงอื่นๆ ปัญญาประดิษฐ์จำนวนไม่น้อย จึงให้ผลลัพธ์แค่พอใช้งานได้เท่านั้น ไม่ใช่ผลลัพธ์ที่ดีเลิศ การนำปัญญาประดิษฐ์ไปใช้กับงานที่มีความเสี่ยงสูงจึงต้องมีความระมัดระวังอย่างยิ่ง
5. ปัญญาประดิษฐ์บางประเภทมีความเปราะบางต่อสถานการณ์ที่ต่างกัน ปัญญาประดิษฐ์อาจทำงานได้ถูกต้องในสถานการณ์หนึ่ง แต่ปัญญาประดิษฐ์ชิ้นเดียวกันอาจทำงานผิดพลาดได้ในอีกสถานการณ์หนึ่งก็เป็นได้
6. ปัญญาประดิษฐ์บางประเภทมีความกำกวมและไม่สามารถหาคำอธิบายถึงเหตุผลในการตัดสินใจของปัญญาประดิษฐ์ได้ในแต่ละเหตุการณ์ได้ ปัญญาประดิษฐ์ประเภทนี้จึงเป็นเสมือนกล่องดำ ที่เป็นความลับต่อผู้ใช้งานหรือแม้แต่ผู้พัฒนาปัญญาประดิษฐ์เองก็ตาม และหากมีปัญหาเกิดขึ้นกับปัญญาประดิษฐ์จึงไม่ง่ายที่จะแก้ไขปัญหาได้โดยเร็ว
7. กฎหมาย การกำกับดูแล และกลไกการตรวจสอบ ระบบปัญญาประดิษฐ์ยังไม่มีความชัดเจนหรือยังไม่ได้มีการกำหนด
นอกจากนี้ความเสี่ยง คือ ปัญหาที่มีผู้หยิบยกขึ้นมากล่าวถึงเสมอเมื่อมีการพูดถึงปัญญาประดิษฐ์ เป็นต้นว่า ปัญญาประดิษฐ์อาจถูกใช้เป็นเครื่องมือของอาชญากรทางไซเบอร์ หรือ ปัญญาประดิษฐ์อาจมีช่องว่างที่จะถูกโจมตีจากอาชญากรทางไซเบอร์ ฯลฯ แต่ความเสี่ยงของปัญญาประดิษฐ์มักถูก ปฏิเสธและละเลย จะด้วยเหตุผลที่นักพัฒนาปัญญาประดิษฐ์เชื่อมั่นในศักยภาพของปัญญาประดิษฐ์หรือการหวังผลทางธุรกิจมากเกินไปจนเห็นความเสี่ยงเป็นปัญหารองหรือด้วยเหตุผลอื่นๆก็ตาม จึงทำให้ปัญญาประดิษฐ์ยังคงถูกมองจากคนทั่วไปว่า เป็นเทคโนโลยีที่ปลอดภัยหรือปราศจากข้อผิดพลาด ทั้งๆ ที่ปัญญาประดิษฐ์เป็นเทคโนโลยีที่มีความผิดพลาดได้ ไม่ต่างจากเทคโนโลยีประเภทอื่น
การนำปัญญาประดิษฐ์ไปใช้ในงานบางประเภท เช่น กรณีที่มีชีวิตและเสรีภาพของมนุษย์เป็นเดิมพัน ไม่ว่าจะเป็น การวินิจฉัยโรค กระบวนการยุติธรรมและอาชญากรรม ฯลฯ จึงต้องมีมนุษย์ร่วมตัดสินใจด้วยเสมอ
ตัวอย่างปัญหาจากการใช้ปัญญาประดิษฐ์ในโครงการ “ เราไม่ทิ้งกัน” คือบทเรียนสำคัญของการใช้ปัญญาประดิษฐ์ที่อยู่บนความคาดหวังของผู้คนที่กำลังอยู่ในความทุกข์ จึงส่งผลกระทบเป็นวงกว้าง ซึ่งไม่เพียงลดทอนความเชื่อถือต่อระบบงานของภาครัฐเท่านั้น แต่ยังส่งผลกระทบต่อความเชื่อมั่นต่อเครื่องมือที่นำมาใช้คัดกรองและประมวลผลอีกด้วยและเป็นเรื่องสำคัญที่รัฐต้องสร้างความเข้าใจแก่ประชาชน
การสร้างกระแสที่ทำให้ดูเหมือนว่า ปัญญาประดิษฐ์มีความสามารถเกินความเป็นจริงจากสื่อ นักวิชาการ นักพัฒนาปัญญาประดิษฐ์ ฯลฯ เป็นเรื่องที่คนส่วนใหญ่ควรต้องได้รับคำอธิบายเช่นกัน เพื่อไม่ให้มีการคาดหมายผลลัพธ์จากปัญญาประดิษฐ์มากจนเกินไปจนคิดว่า ปัญญาประดิษฐ์คือกล่องวิเศษที่สามารถเนรมิตทุกอย่างที่ต้องการได้
ที่สำคัญคือภาครัฐและผู้ให้บริการเทคโนโลยีปัญญาประดิษฐ์ต้องพิสูจน์ให้เห็นถึง “ความน่าเชื่อถือ” ของปัญญาประดิษฐ์ก่อนนำปัญญาประดิษฐ์มาใช้งานหรือก่อนสนับสนุนให้มีการใช้ปัญญาประดิษฐ์ในวงกว้าง เพื่อหลีกเลี่ยงผลกระทบต่อผู้คนและสร้างความเชื่อมั่นต่อการทำงานของภาครัฐและภาคธุรกิจในอนาคต
อ้างอิงจาก
1. Artificial Intelligence for Everyone โดย Steven Finlay
2. AI Rebooting โดย Gary Marcus และ Ernest Davis
ภาพประกอบ
https://medium.com/@marisa.tschopp/do-you-trust-artificial-intelligence-ea0816d88d6d