ThaiPublica > คอลัมน์ > AI Ethics by Design แนวทางการออกแบบ AI ที่คำนึงถึงจริยธรรม

AI Ethics by Design แนวทางการออกแบบ AI ที่คำนึงถึงจริยธรรม

23 มิถุนายน 2019


จรัล งามวิโรจน์เจริญ Chief Data Scientist & VP of Data Innovation Lab บริษัท เซอร์ทิส จำกัด

ในอนาคตเราจะอยู่ในสังคมที่มี AI algorithm ที่หลากหลายและแพร่หลายในชีวิตประจำวัน โดย AI จะทำงานใกล้ชิดกับเราและสามารถตัดสินใจแทนมนุษย์ได้มากขึ้น เพราะฉะนั้นเราควรเริ่มมีการออกแบบ AI ที่คำนึงถึงความปลอดภัยและมีหลักจริยธรรมในการตัดสินใจ เพื่อให้เทคโนโลยีนี้มีประโยชน์สูงสุดกับมนุษย์

ในช่วงหลายปีที่ผ่านมามีผู้คนและนักวิชาการจากหลายศาสตร์หลายแขนง ร่วมกันนำเสนอแนวทางในการออกแบบ AI เพื่อมุ่งหมายที่จะทำให้ผู้ใช้งาน รวมถึงผู้ออกแบบ เกิดความตระหนักและคำนึงถึงความปลอดภัยในการออกแบบ โดยมุ่งเน้นการทำให้มนุษย์เป็นศูนย์กลาง (human-centered AI) และทำความเข้าใจหลักการทำงานของ AI ให้ดีขึ้น ซึ่งผมจะขอยกตัวอย่างหัวข้อต่างๆ ที่สำคัญและน่าสนใจ ดังนี้

1. พฤติกรรมของเครื่อง (Machine Behavior)

การทำความเข้าใจพฤติกรรมของ AI เป็นศาสตร์ที่รวมผู้เชี่ยวชาญในแขนงต่างๆ นอกเหนือจากวิศวกรรม โดยศึกษาพฤติกรรมการทำงานของ AI เหมือนที่เราศึกษาพฤติกรรมของคนหรือสัตว์ เพื่อคำนึงถึงผลกระทบในการใช้งาน ทั้งทางด้านสังคม วัฒนธรรม เศรษฐกิจ และการเมือง การศึกษานี้จะดูพฤติกรรม 3 ระดับ ได้แก่ 1) พฤติกรรมของ AI agent อย่างเดียว 2) พฤติกรรมของกลุ่ม AI agent ที่ทำงานร่วมกัน และ 3) พฤติกรรมของกลุ่ม AI ที่ผสมกับพฤติกรรมของมนุษย์

การดูพฤติกรรม AI agent อย่างเดียวสามารถดูได้แบบ within-machine โดยดูว่าพฤติกรรมของ AI agent เปลี่ยนไปอย่างไรเมื่อสถานการณ์เปลี่ยนหรือแบบ between-machine เพื่อดูว่าสถานการณ์เดียวกัน AI agent ที่ต่างกันมีพฤติกรรมเหมือนหรือแตกต่างกันอย่างไร

คำถามที่น่าสนใจคือ การมี AI เป็นส่วนหนึ่งของชีวิตจะทำให้พฤติกรรมมนุษย์เปลี่ยนไป หรือมนุษย์เองที่ทำให้พฤติกรรม AI เปลี่ยน หรืออาจเกิดพฤติกรรมร่วมระหว่างมนุษย์และ AI ในรูปแบบใหม่ ซึ่งสิ่งเหล่านี้ยังต้องมีการวิจัยเพิ่มมากขึ้น

2. การออกแบบที่คำนึงถึงจริยธรรม (Ethically Aligned Design)

สมาชิกของ IEEE สถาบันวิศวกรรมไฟฟ้าและอิเล็กทรอนิกส์ที่มีสมาชิกทั่วโลก ได้ช่วยกันร่าง framework ที่ใช้ในการพัฒนาระบบทำงานอัตโนมัติที่มีความฉลาด (A/IS – autonomous and intelligent systems แต่ในบทความนี้ขอเรียกรวมๆ ว่า AI) โดยยึดถือหลักการต่อไปนี้ในการออกแบบ

1. Human Rights: คำนึงถึงและไม่ล่วงละเมิดสิทธิมนุษยชน

    ปัญหา: ทำอย่างไรเราจะมั่นใจว่า AI ไม่ล่วงล้ำสิทธิมนุษยชน

    คำแนะนำ:

    1.) มีกรอบการจัดการเพื่อป้องกันสิทธิส่วนบุคคลและสร้างความเชื่อมั่นให้กับสาธารณะ
    2.) มีวิธีที่จะเปลี่ยนข้อบังคับที่มีอยู่หรือที่กำลังจะมาถึงไปเป็นนโยบายหรือการพิจารณาทางเทคนิค
    3.) ในอนาคต AI ไม่ควรมีสิทธิเท่าเทียมมนุษย์และควรอยู่ภายใต้ความควบคุมของมนุษย์

2. Well-being: ให้ความสำคัญกับความเป็นอยู่ของมนุษย์

    ปัญหา: ตัวชี้วัดความเจริญแบบเดิมไม่ได้คำนึงถึงผลกระทบของเทคโนโลยี AI ที่มีต่อความเป็นอยู่ของมนุษย์

    คำแนะนำ: ให้ความสำคัญกับความเป็นอยู่ของมนุษย์ในการออกแบบระบบ AI และใช้ตัวชี้วัดที่ดีที่สุดที่มีอยู่เป็นตัวอ้างอิง

3. Accountability: รับรองได้ว่าคนที่ออกแบบและผู้ใช้เทคโนโลยีมีความรับผิดชอบและตรวจสอบได้

    ปัญหา: เราจะมั่นใจได้อย่างไรว่าคนออกแบบ ผู้ผลิต เจ้าของ ผู้ใช้ AI มีความรับผิดชอบและตรวจสอบได้

    คำแนะนำ:

    1.) ศาลควรจะอธิบายปัญหาความรับผิดชอบของ AI ระหว่างการพัฒนาและการใช้งาน
    2.) ผู้ออกแบบและพัฒนาควรคำนึงถึงความหลากหลายด้านบรรทัดฐานทางวัฒนธรรม (cultural norms) ของผู้ใช้
    3.) ควรมีการพัฒนาระบบนิเวศที่มีผู้มีประโยชน์ร่วม (multi-stakeholder ecosystems) เพื่อทำให้เกิดบรรทัดฐานใหม่ที่จะมาเป็นรูปแบบปฏิบัติที่มีคุณภาพ (best practices) และออกเป็นกฎหมาย
    4.) ควรมีระบบลงทะเบียนและบันทึกเพื่อการตรวจสอบหาผู้รับผิดชอบสำหรับระบบ AI

4. Transparency: รับรองได้ว่ามีความโปร่งใสในการทำงาน

    ปัญหา: เราจะมั่นใจว่า AI โปร่งใสได้อย่างไร

    คำแนะนำ: พัฒนามาตรฐานใหม่ที่วัดและตรวจสอบระดับความโปร่งใสได้ เพื่อให้ระบบสามารถถูกประเมินและพิจารณาระดับของการปฏิบัติตามข้อกำหนด (levels of compliance)

5. Awareness of Misuse: รับรู้ว่าใช้ในทางที่ผิด

    ปัญหา: เราจะสามารถขยายประโยชน์และลดความเสี่ยงของการนำเทคโนโลยี AI ไปใช้ในทางที่ผิดได้อย่างไร

    คำแนะนำ:

    1.) ให้การศึกษาด้านจริยธรรมและความมั่นคงเพื่อสร้างความตระหนักถึงการใช้ AI ในทางที่ถูกต้อง
    2.) ขยายการศึกษาด้านนี้ให้ครอบคลุม
    3.) ให้ความรู้กับภาครัฐ นักกฎหมาย ผู้บังคับใช้กฎหมาย ถึงปัญหาเหล่านี้เพื่อให้ประชาชนทำงานร่วมกัน และหลีกเลี่ยงความกลัวหรือความสับสนเกี่ยวกับเทคโนโลยี AI

เมื่อระบบ AI มีความเป็นอิสระในการตัดสินใจ (autonomy) มันควรจะถูกออกแบบให้เรียนรู้และทำตามบรรทัดฐาน (norms) หรือค่านิยม (values) ของสังคมที่ AI ทำงานอยู่ เราต้องสามารถอธิบายการกระทำของ AI เพื่อสร้างความเชื่อมั่นในการใช้งาน การจะนำบรรทัดฐานและค่านิยมมาเป็นส่วนหนึ่งในการออกแบบต้องคำนวณได้และยึดหลักว่า ต้องหาทางปฏิบัติและประเมินบรรทัดฐานที่กลุ่มคนใช้งานยอมรับ โดยต้องทบทวนกระบวนการนี้อย่างซ้ำๆ (iterative)

ในปี ค.ศ. 2018 กลุ่มผู้เชี่ยวชาญหลากหลายสาขาใน EU (EU’s Ethics Guidelines For Trustworthy AI) ได้ร่วมกันร่างแนวทางจริยธรรมเพื่อการพัฒนา AI ที่น่าเชื่อถือ ซึ่งได้ผ่านการตรวจสอบและได้รับผลตอบรับจากผู้ร่วมตรวจสอบกว่า 500 คน โดยมุ่งเน้นว่าความน่าเชื่อ (trustworthiness) เป็นสิ่งจำเป็นที่มนุษย์และสังคมต้องมีในการพัฒนาและการใช้งาน AI

3 องค์ประกอบที่น่าเชื่อถือสำหรับ AI ที่ควรมีตลอดอายุการใช้งาน คือ

    1. Lawful ควรปฏิบัติตามกฎหมายและกฎระเบียบที่เหมาะสม
    2. Ethical ควรมีจริยธรรมที่สอดคล้องกับบรรทัดฐานและค่านิยม
    3. Robust ควรมีความทนทานทางด้านเทคนิคและสังคม

โดยแนวทางในการพัฒนาและใช้งานต้องคำนึงถึงหลักจริยธรรม เคารพความเป็นอิสระของมนุษย์ ป้องกันภัยอันตราย มีความเป็นธรรมและมีหลักการอธิบายได้ พร้อมที่จะแก้ไขจุดขัดแย้งที่อาจเกิดขึ้นจากหลักการที่กล่าวมาข้างต้น รวมทั้งให้ความสำคัญกับกลุ่มเปราะบาง (vulnerable group) เช่น เด็ก ผู้พิการ ผู้ด้อยโอกาสอื่นๆ นอกจากนี้ ต้องมีการเตรียมความพร้อมเพื่อรับความเสี่ยงต่อสังคมที่ไม่คาดคิดอย่างเหมาะสม

โดยภาพรวมแล้ว ใจความและหลักการของร่าง EU และแนวทางของหลายๆ กลุ่ม เช่น IBM everyday ethics ก็มีหลักการที่คล้ายกับ IEEE ที่เน้นมนุษย์เป็นศูนย์กลาง เพราะสุดท้ายแล้ว เรานำ AI มาใช้เพื่อก่อให้เกิดประโยชน์สูงสุดกับมนุษย์และสังคม ส่วนความท้าทายที่เรากำลังเผชิญ คือ การนำสิ่งที่เป็นนามธรรม เช่น จริยธรรม บรรทัดฐาน และค่านิยม ฝังเข้าไปเป็นส่วนหนึ่งในการออกแบบและใช้งาน AI

นอกจากนี้ยังมีอีกหลากหลายมิติที่เนื้อหาในบทความนี้ยังไม่ครอบคลุม ผมอยากจะให้ทุกท่านได้เริ่มคิดและศึกษาดูครับ ซึ่งก็มีอะไรน่าคิดอีกเยอะเลย เช่น หากการออกแบบและพัฒนา AI ไม่ได้คำนึงถึงมนุษย์ ความเสี่ยงที่เราไม่คาดคิดจะเกิดขึ้นกับใคร คำถามนี้ก็เป็นสิ่งที่น่าคิดนะครับ

อ้างอิง

1.https://www.eli.org/sites/default/files/eli-pubs/when-software-rules-web.pdf

2.http://standards.ieee.org/develop/indconn/ec/autonomous_systems.html

3.https://www.nature.com/articles/s41586-019-1138-y.epdf

4.https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

5.https://www.ibm.com/watson/assets/duo/pdf/everydayethics.pdf