จรัล งามวิโรจน์เจริญ Chief Data Scientist & VP of Data Innovation Lab บริษัท เซอร์ทิส จำกัด
ในอนาคตเราจะอยู่ในสังคมที่มี AI algorithm ที่หลากหลายและแพร่หลายในชีวิตประจำวัน โดย AI จะทำงานใกล้ชิดกับเราและสามารถตัดสินใจแทนมนุษย์ได้มากขึ้น เพราะฉะนั้นเราควรเริ่มมีการออกแบบ AI ที่คำนึงถึงความปลอดภัยและมีหลักจริยธรรมในการตัดสินใจ เพื่อให้เทคโนโลยีนี้มีประโยชน์สูงสุดกับมนุษย์
ในช่วงหลายปีที่ผ่านมามีผู้คนและนักวิชาการจากหลายศาสตร์หลายแขนง ร่วมกันนำเสนอแนวทางในการออกแบบ AI เพื่อมุ่งหมายที่จะทำให้ผู้ใช้งาน รวมถึงผู้ออกแบบ เกิดความตระหนักและคำนึงถึงความปลอดภัยในการออกแบบ โดยมุ่งเน้นการทำให้มนุษย์เป็นศูนย์กลาง (human-centered AI) และทำความเข้าใจหลักการทำงานของ AI ให้ดีขึ้น ซึ่งผมจะขอยกตัวอย่างหัวข้อต่างๆ ที่สำคัญและน่าสนใจ ดังนี้
1. พฤติกรรมของเครื่อง (Machine Behavior)
การทำความเข้าใจพฤติกรรมของ AI เป็นศาสตร์ที่รวมผู้เชี่ยวชาญในแขนงต่างๆ นอกเหนือจากวิศวกรรม โดยศึกษาพฤติกรรมการทำงานของ AI เหมือนที่เราศึกษาพฤติกรรมของคนหรือสัตว์ เพื่อคำนึงถึงผลกระทบในการใช้งาน ทั้งทางด้านสังคม วัฒนธรรม เศรษฐกิจ และการเมือง การศึกษานี้จะดูพฤติกรรม 3 ระดับ ได้แก่ 1) พฤติกรรมของ AI agent อย่างเดียว 2) พฤติกรรมของกลุ่ม AI agent ที่ทำงานร่วมกัน และ 3) พฤติกรรมของกลุ่ม AI ที่ผสมกับพฤติกรรมของมนุษย์
การดูพฤติกรรม AI agent อย่างเดียวสามารถดูได้แบบ within-machine โดยดูว่าพฤติกรรมของ AI agent เปลี่ยนไปอย่างไรเมื่อสถานการณ์เปลี่ยนหรือแบบ between-machine เพื่อดูว่าสถานการณ์เดียวกัน AI agent ที่ต่างกันมีพฤติกรรมเหมือนหรือแตกต่างกันอย่างไร
คำถามที่น่าสนใจคือ การมี AI เป็นส่วนหนึ่งของชีวิตจะทำให้พฤติกรรมมนุษย์เปลี่ยนไป หรือมนุษย์เองที่ทำให้พฤติกรรม AI เปลี่ยน หรืออาจเกิดพฤติกรรมร่วมระหว่างมนุษย์และ AI ในรูปแบบใหม่ ซึ่งสิ่งเหล่านี้ยังต้องมีการวิจัยเพิ่มมากขึ้น
2. การออกแบบที่คำนึงถึงจริยธรรม (Ethically Aligned Design)
สมาชิกของ IEEE สถาบันวิศวกรรมไฟฟ้าและอิเล็กทรอนิกส์ที่มีสมาชิกทั่วโลก ได้ช่วยกันร่าง framework ที่ใช้ในการพัฒนาระบบทำงานอัตโนมัติที่มีความฉลาด (A/IS – autonomous and intelligent systems แต่ในบทความนี้ขอเรียกรวมๆ ว่า AI) โดยยึดถือหลักการต่อไปนี้ในการออกแบบ
1. Human Rights: คำนึงถึงและไม่ล่วงละเมิดสิทธิมนุษยชน
- ปัญหา: ทำอย่างไรเราจะมั่นใจว่า AI ไม่ล่วงล้ำสิทธิมนุษยชน
คำแนะนำ:
1.) มีกรอบการจัดการเพื่อป้องกันสิทธิส่วนบุคคลและสร้างความเชื่อมั่นให้กับสาธารณะ
2.) มีวิธีที่จะเปลี่ยนข้อบังคับที่มีอยู่หรือที่กำลังจะมาถึงไปเป็นนโยบายหรือการพิจารณาทางเทคนิค
3.) ในอนาคต AI ไม่ควรมีสิทธิเท่าเทียมมนุษย์และควรอยู่ภายใต้ความควบคุมของมนุษย์
2. Well-being: ให้ความสำคัญกับความเป็นอยู่ของมนุษย์
-
ปัญหา: ตัวชี้วัดความเจริญแบบเดิมไม่ได้คำนึงถึงผลกระทบของเทคโนโลยี AI ที่มีต่อความเป็นอยู่ของมนุษย์
คำแนะนำ: ให้ความสำคัญกับความเป็นอยู่ของมนุษย์ในการออกแบบระบบ AI และใช้ตัวชี้วัดที่ดีที่สุดที่มีอยู่เป็นตัวอ้างอิง
3. Accountability: รับรองได้ว่าคนที่ออกแบบและผู้ใช้เทคโนโลยีมีความรับผิดชอบและตรวจสอบได้
- ปัญหา: เราจะมั่นใจได้อย่างไรว่าคนออกแบบ ผู้ผลิต เจ้าของ ผู้ใช้ AI มีความรับผิดชอบและตรวจสอบได้
คำแนะนำ:
1.) ศาลควรจะอธิบายปัญหาความรับผิดชอบของ AI ระหว่างการพัฒนาและการใช้งาน
2.) ผู้ออกแบบและพัฒนาควรคำนึงถึงความหลากหลายด้านบรรทัดฐานทางวัฒนธรรม (cultural norms) ของผู้ใช้
3.) ควรมีการพัฒนาระบบนิเวศที่มีผู้มีประโยชน์ร่วม (multi-stakeholder ecosystems) เพื่อทำให้เกิดบรรทัดฐานใหม่ที่จะมาเป็นรูปแบบปฏิบัติที่มีคุณภาพ (best practices) และออกเป็นกฎหมาย
4.) ควรมีระบบลงทะเบียนและบันทึกเพื่อการตรวจสอบหาผู้รับผิดชอบสำหรับระบบ AI
4. Transparency: รับรองได้ว่ามีความโปร่งใสในการทำงาน
-
ปัญหา: เราจะมั่นใจว่า AI โปร่งใสได้อย่างไร
คำแนะนำ: พัฒนามาตรฐานใหม่ที่วัดและตรวจสอบระดับความโปร่งใสได้ เพื่อให้ระบบสามารถถูกประเมินและพิจารณาระดับของการปฏิบัติตามข้อกำหนด (levels of compliance)
5. Awareness of Misuse: รับรู้ว่าใช้ในทางที่ผิด
-
ปัญหา: เราจะสามารถขยายประโยชน์และลดความเสี่ยงของการนำเทคโนโลยี AI ไปใช้ในทางที่ผิดได้อย่างไร
คำแนะนำ:
1.) ให้การศึกษาด้านจริยธรรมและความมั่นคงเพื่อสร้างความตระหนักถึงการใช้ AI ในทางที่ถูกต้อง
2.) ขยายการศึกษาด้านนี้ให้ครอบคลุม
3.) ให้ความรู้กับภาครัฐ นักกฎหมาย ผู้บังคับใช้กฎหมาย ถึงปัญหาเหล่านี้เพื่อให้ประชาชนทำงานร่วมกัน และหลีกเลี่ยงความกลัวหรือความสับสนเกี่ยวกับเทคโนโลยี AI
เมื่อระบบ AI มีความเป็นอิสระในการตัดสินใจ (autonomy) มันควรจะถูกออกแบบให้เรียนรู้และทำตามบรรทัดฐาน (norms) หรือค่านิยม (values) ของสังคมที่ AI ทำงานอยู่ เราต้องสามารถอธิบายการกระทำของ AI เพื่อสร้างความเชื่อมั่นในการใช้งาน การจะนำบรรทัดฐานและค่านิยมมาเป็นส่วนหนึ่งในการออกแบบต้องคำนวณได้และยึดหลักว่า ต้องหาทางปฏิบัติและประเมินบรรทัดฐานที่กลุ่มคนใช้งานยอมรับ โดยต้องทบทวนกระบวนการนี้อย่างซ้ำๆ (iterative)
ในปี ค.ศ. 2018 กลุ่มผู้เชี่ยวชาญหลากหลายสาขาใน EU (EU’s Ethics Guidelines For Trustworthy AI) ได้ร่วมกันร่างแนวทางจริยธรรมเพื่อการพัฒนา AI ที่น่าเชื่อถือ ซึ่งได้ผ่านการตรวจสอบและได้รับผลตอบรับจากผู้ร่วมตรวจสอบกว่า 500 คน โดยมุ่งเน้นว่าความน่าเชื่อ (trustworthiness) เป็นสิ่งจำเป็นที่มนุษย์และสังคมต้องมีในการพัฒนาและการใช้งาน AI
3 องค์ประกอบที่น่าเชื่อถือสำหรับ AI ที่ควรมีตลอดอายุการใช้งาน คือ
-
1. Lawful ควรปฏิบัติตามกฎหมายและกฎระเบียบที่เหมาะสม
2. Ethical ควรมีจริยธรรมที่สอดคล้องกับบรรทัดฐานและค่านิยม
3. Robust ควรมีความทนทานทางด้านเทคนิคและสังคม
โดยแนวทางในการพัฒนาและใช้งานต้องคำนึงถึงหลักจริยธรรม เคารพความเป็นอิสระของมนุษย์ ป้องกันภัยอันตราย มีความเป็นธรรมและมีหลักการอธิบายได้ พร้อมที่จะแก้ไขจุดขัดแย้งที่อาจเกิดขึ้นจากหลักการที่กล่าวมาข้างต้น รวมทั้งให้ความสำคัญกับกลุ่มเปราะบาง (vulnerable group) เช่น เด็ก ผู้พิการ ผู้ด้อยโอกาสอื่นๆ นอกจากนี้ ต้องมีการเตรียมความพร้อมเพื่อรับความเสี่ยงต่อสังคมที่ไม่คาดคิดอย่างเหมาะสม
โดยภาพรวมแล้ว ใจความและหลักการของร่าง EU และแนวทางของหลายๆ กลุ่ม เช่น IBM everyday ethics ก็มีหลักการที่คล้ายกับ IEEE ที่เน้นมนุษย์เป็นศูนย์กลาง เพราะสุดท้ายแล้ว เรานำ AI มาใช้เพื่อก่อให้เกิดประโยชน์สูงสุดกับมนุษย์และสังคม ส่วนความท้าทายที่เรากำลังเผชิญ คือ การนำสิ่งที่เป็นนามธรรม เช่น จริยธรรม บรรทัดฐาน และค่านิยม ฝังเข้าไปเป็นส่วนหนึ่งในการออกแบบและใช้งาน AI
นอกจากนี้ยังมีอีกหลากหลายมิติที่เนื้อหาในบทความนี้ยังไม่ครอบคลุม ผมอยากจะให้ทุกท่านได้เริ่มคิดและศึกษาดูครับ ซึ่งก็มีอะไรน่าคิดอีกเยอะเลย เช่น หากการออกแบบและพัฒนา AI ไม่ได้คำนึงถึงมนุษย์ ความเสี่ยงที่เราไม่คาดคิดจะเกิดขึ้นกับใคร คำถามนี้ก็เป็นสิ่งที่น่าคิดนะครับ
อ้างอิง
1.https://www.eli.org/sites/default/files/eli-pubs/when-software-rules-web.pdf
2.http://standards.ieee.org/develop/indconn/ec/autonomous_systems.html
3.https://www.nature.com/articles/s41586-019-1138-y.epdf
4.https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
5.https://www.ibm.com/watson/assets/duo/pdf/everydayethics.pdf