ThaiPublica > คอลัมน์ > รู้รอบด้าน ลดความผิดพลาดของ AI

รู้รอบด้าน ลดความผิดพลาดของ AI

23 กันยายน 2020


จรัล งามวิโรจน์เจริญ Chief Data Scientist & VP of Data Innovation Lab บริษัท เซอร์ทิส จำกัด

บทความที่แล้วเราได้พูดถึง ข้อผิดพลาดที่เกิดขึ้นได้กับการใช้ AI คราวนี้มาดูกันครับว่า เราจะเตรียมตัวเพื่อหลีกเลี่ยง หรือลดความผิดพลาดที่อาจจะเกิดขึ้นได้อย่างไรบ้าง ซึ่งระบบ AI ก็เหมือนกับระบบนิเวศ (ecosystem) ประกอบไปด้วยต้นน้ำ (ผู้พัฒนา) กลางน้ำ (ผู้ให้บริการ AI เพื่อนำไปใช้ในอุตสาหกรรมสายงานต่าง ๆ) และปลายน้ำ (ผู้ใช้งานและผู้ที่ได้รับผลกระทบจากการใช้งาน) สิ่งที่จะช่วยทำให้ระบบนิเวศ AI มีความปลอดภัย มีดังนี้

1. การยกระดับมาตรฐานของการพัฒนาและการใช้ AI

ระบบ AI สะท้อนถึงทัศนคติ ค่านิยม และวัฒนธรรมของผู้พัฒนา เช่น ระบบ recommendation ในประเทศสหรัฐอเมริกา แนะนำลูกค้าให้ซื้อคุกกี้ทานคู่กับนม ในขณะที่ประเทศแถบเอเชีย ระบบอาจจะแนะนำให้ทานคู่กับขนมประเภทอื่น

ซึ่งการนำ AI มาใช้ เปรียบเสมือนการรวมอำนาจการตัดสินใจแทนคนอื่น ๆ อีกหลายคน ซึ่งอำนาจนี้ก็ส่งผลต่อพฤติกรรมของใครหลายคนตามมาด้วย

ดังนั้น ความซับซ้อนของระบบนิเวศ AI และผลกระทบต่อมนุษย์ ทำให้เราต้องยกระดับมาตรฐานการพัฒนาและนำ AI ไปใช้ โดยต้องเน้นให้เกิดการมีส่วนร่วม (Inclusiveness) ของคนในระบบ ซึ่งอาจจะต้องอาศัยนักพัฒนาระบบจากหลาย ๆ สาขามาร่วมกันออกแบบและศึกษาถึงผลกระทบที่อาจจะเกิดขึ้นกับกลุ่มคนต่าง ๆ โดยคำนึงถึงสิทธิส่วนบุคคลและความปลอดภัยเป็นสำคัญ เพราะหากพัฒนาระบบอย่างไม่รอบคอบอาจก่อให้เกิดความผิดพลาดที่ไม่คาดคิดได้

นอกจากนี้ ควรเปิดโอกาสให้อุตสาหกรรมและผู้ประกอบการต่าง ๆ ได้มีส่วนร่วมในการกำหนดมาตรฐาน AI ที่จำเป็นต่ออุตสาหกรรมของตน และควรสร้างความเข้าใจว่า เราควรนำคำตอบของ AI ไปใช้พิจารณาร่วมกับการตัดสินใจของผู้เชี่ยวชาญ มากกว่าการเชื่อผลการตัดสินใจของ AI แบบ 100%

2. การบริหารความเสื่ยงโดยให้คนเป็นส่วนหนึ่งของระบบ

ก่อนอื่นต้องเข้าใจว่า งานบางอย่างที่มีผลกระทบต่อชีวิต จิตใจ และทรัพย์สิน อาจไม่จำเป็นต้องใช้ระบบอัตโนมัติ (automation) หรือ AI เสมอไป หรือถ้าใช้ก็ควรมีผู้เชี่ยวชาญมาช่วยพิจารณาตัดสินอีกครั้ง ผมคิดว่า ระบบ AI ที่ดีต้องมีทางเลือกให้กับผู้ใช้งาน ในการปรับแก้การตัดสินใจได้ ในอีกมุมหนึ่งของการพัฒนา เราอาจจะให้คนทดลองแฮกระบบ (hack) เพื่อเตรียมความพร้อม ป้องกัน และรับมือหากเกิดความผิดพลาดที่ไม่คาดคิดขึ้น

3. ความโปร่งใสและการป้องกันของระบบ

ผู้พัฒนาควรจะมีการแจกแจงสมมติฐานของระบบ AI อย่างชัดเจน เพื่อให้ผู้ให้บริการและผู้ใช้งาน สามารถทำความเข้าใจและตรวจสอบได้ อีกทั้งยังควรมีองค์กรอิสระในการตรวจสอบผลลัพธ์ของการใช้ระบบ AI เพื่อสร้างกลไกในการตรวจสอบ ติดตามผลกระทบจากการใช้งาน รวมทั้งพิจารณาประเด็นด้านจริยธรรมในการใช้ AI ให้เหมาะสม

ผมอยากฝากทิ้งท้ายไว้ว่า การพัฒนาของเทคโนโลยีสมัยใหม่เช่น AI นั้น มีความก้าวหน้ารวดเร็วเกินกว่ากฎระเบียบจะตามได้ทัน และยิ่งไปกว่านั้นเทคโนโลยีนี้ มีความสามารถในการตัดสินใจเองได้และอาจส่งผลกระทบต่อมนุษย์และสังคม

ดังนั้นในฐานะผู้พัฒนา ผู้ให้บริการ ผู้ใช้ และผู้ได้รับผลกระทบ เราต้องสร้าง “กระบวนการมีส่วนร่วม” เพื่อประเมินความเสี่ยงของเทคโนโลยีนี้ เราต้องช่วยกันครับ เพื่อทำให้เกิดสังคมที่ใช้ AI อย่างปลอดภัยและมีประโยชน์สูงสุด

References:

https://ethicsinaction.ieee.org/
https://sites.mitre.org/aifails/