ความอัจฉริยะของเอไอกับมุมมองด้านสังคมและจริยธรรม

จรัล งามวิโรจน์เจริญ Chief Data Scientist & VP of Data Innovation Lab

บทความที่แล้วเราได้กล่าวถึงปัญญาประดิษฐ์หรือเอไอ (artificial intelligence – AI) กับมุมมองทางด้านจริยธรรม โดยยกประเด็นที่น่าสนใจต่างๆ เกี่ยวกับข้อกังวลของอัลกอริทึมที่อาจส่งผลกระทบกับมนุษย์ ซึ่งปัจจุบันเราอยู่ในยุคที่เอไอถูกนำมาใช้ในการตัดสินใจเรื่องต่างๆ มากขึ้น เช่น การตัดสินอนุมัติกู้ยืมเงิน ซื้อขายหุ้น คัดกรองข่าว ตัดสินโทษจำคุก เป็นต้น โดยในมุมของผู้ใช้หรือผู้พัฒนาก็มีหลายประเด็นที่ควรคำนึงถึง (บทความ มุมมองจริยธรรมที่ชวนคิดของชีวิตในอนาคต) และในบทความนี้ ผมจะขอกล่าวถึงกรณีศึกษาต่างๆ ที่น่าสนใจ ทั้งมุมมองด้านสังคม จริยธรรม และอีกหลายมิติที่อาจยังไม่มีบทสรุปชัดเจน ขึ้นอยู่กับเราว่าจะคิดอย่างไร

กรณีศึกษาที่ 1: เอไอที่ใช้ในการคัดเลือกใบสมัครงาน

บริษัท Arai เป็นบริษัทซอฟต์แวร์ที่เริ่มโด่งดังในตลาดโลก ฝ่ายทรัพยากรบุคคลได้รับใบสมัครงานมากมายจนล้นมือ จึงขอให้ทีมนักพัฒนาช่วยสร้างเอไอสำหรับคัดเลือกใบสมัครงาน ซึ่งระบบนี้ก็ใช้งานได้ดี แม่นยำ และรวดเร็ว จนทำให้ฝ่ายทรัพยากรบุคคลเชื่อใจและลดการตรวจทานลง ต่อมา นางสาวมานีได้รับอีเมล ตอบกลับว่าใบสมัครของเธอถูกปฏิเสธเพียงระยะเวลาไม่กี่ชั่วโมงเท่านั้น ซึ่งเธอมั่นใจว่ามีคุณสมบัติครบถ้วนเหมาะสมกับงาน เธอจึงเขียนอีเมลไปแจ้งฝ่ายทรัพยากรบุคคลของบริษัทฯ ซึ่งผลการตรวจสอบข้อมูลเชิงลึกพบว่า ตัวแปรที่เอไอใช้ คือ การเน้นผู้สมัครที่มาจากสถาบันการศึกษาหนึ่งมากกว่าสถาบันอื่นๆ คำถามที่ชวนคิดคือ เมื่อโมเดลมีความอคติซึ่งเกิดขึ้นจากข้อมูลที่มีความอคติ ทางทีมนักพัฒนาควรจะจัดการอย่างไร

กรณีศึกษาที่ 2: เอไอสำหรับการสอบสวน

หน่วยสืบสวนของประเทศ Arpae ให้บริษัท Thammai พัฒนาแชทบอท Arbot ที่มีเอไอดูพฤติกรรมการพูดคุยสื่อสารของคนในโลกออนไลน์ เพื่อหาคนที่จะกระทำอาชญากรรมด้านไซเบอร์ เช่น ขโมยข้อมูลส่วนตัวของเหยื่อเพื่อนำไปใช้ทำธุรกรรมต่างๆ โดยที่เจ้าของไม่รู้ ซึ่ง Arbot สามารถพูดคุยกับคนที่มีแนวโน้มที่จะเป็นอาชญากรได้ Artbot สามารถทำงานได้ดีโดยไม่มีคนเข้ามาเกี่ยวข้องและสามารถจับผู้ก่อการร้ายได้มากมาย สร้างความเชื่อมั่นให้กับหน่วยตรวจสอบของประเทศได้เป็นอย่างดี อยู่มาวันหนึ่ง นายมานะจากประเทศ Doodee ถูกจับข้อหาพยายามขายข้อมูล เขาอ้างว่า เขาเป็นเหยื่อจากการพูดคุยกับ Arbot เพราะ Arbot พยายามเสนอให้เขาขายข้อมูลตัวตนของคนอื่น ซึ่งจากการตรวจสอบบันทึกการสนทนาในภายหลังพบว่า Arbot ใช้ประโยคลักษณะจูงใจเพื่อที่จะดูว่าคนจะกระทำผิดหรือไม่

จึงเกิดเป็นคำถามชวนคิดว่า ถ้า Arbot ทำงานผิดพลาดและหน่วยสืบสวนไม่สามารถเปิดเผยรายละเอียดการทำงานของ Arbot ได้เพราะเป็นเรื่องของความมั่นคง เราจะมีกระบวนการตรวจสอบเพื่อสร้างความโปร่งใสได้อย่างไร

กรณีศึกษาที่ 3: เอไอกับการขับรถ

บริษัท Krab เป็นบริษัทให้บริการเช่ารถไร้คนขับที่มีทางเลือกให้คนขับสามารถควบคุมรถได้เอง อยู่มาวันหนึ่ง สมศรีเช่ารถไร้คนขับจาก Krab แล้วปล่อยให้รถขับเอง ระหว่างทางฝนเริ่มตกหนัก ไฟสัญญาณที่สี่แยกเสีย และเผอิญมีคนเข็นรถจักรยานผ่านตรงทางม้าลาย สมศรีมองเห็นสิ่งที่เกิดขึ้นแต่ก็ไม่ได้ทำอะไร ปล่อยให้รถขับต่อไป ปรากฏว่ารถเบี่ยงหลบรถจักรยานและชนคนบนทางเท้า เมื่อตรวจสอบข้อมูลภายในรถก็พบว่า รถเห็นว่าจักรยานกำลังขยับเข้าใกล้ จึงพยายามจะหักหลบ แต่ไม่แน่ใจว่าในกรณีนี้ทำไมรถถึงตัดสินใจอย่างนั้น คำถามชวนคิดของกรณีศึกษานี้คือ คนมีหน้าที่อย่างไรในสถานการณ์ที่มีความเสี่ยงแบบนี้

หลังจากอ่านกรณีศึกษาทั้งหมดจบแล้ว ผมคิดว่ามีประเด็นคำถามที่ชวนให้คิดอีกมากมาย ซึ่งผมขอเพิ่มหัวข้อไว้ด้านล่างนี้ เพื่อให้ผู้อ่านทุกคนลองคิดและชวนเพื่อนๆ มาถกประเด็นต่างๆ ร่วมกันนะครับ

จากการทำงานแบบตัดสินใจเองโดยอัตโนมัติโดยมนุษย์มีส่วนร่วมน้อยหรือไม่มีส่วนร่วมเลย (automation)

1. Human in the loop – Augmentation vs Automation

กรณีศึกษาข้างต้นที่กล่าวมา มีความแตกต่างในการนำเอไอมาใช้ เช่น การนำเอไอมาใช้เป็นส่วนหนึ่งเพื่อเสริมความสามารถของงาน (augmentation) มีมนุษย์เข้ามามีส่วนเกี่ยวข้องในการดำเนินงาน ซึ่งแตกต่างจึงเกิดคำถามว่า ลักษณะงานหรือการตัดสินใจแบบไหนที่เราควรจะให้เอไอทำงานได้ด้วยตัวเองโดยไม่มีคนอยู่ในกระบวนการทำงาน

2. Responsibility & Liability

การเอาเอไอมาใช้งาน ควรจะมีการกำหนดขอบเขตการตัดสินใจของคนกับเอไอหรือไม่ หากเอไอมีความผิดพลาดเกิดขึ้นอย่างที่กล่าวมาในกรณีศึกษาข้างต้น ใครจะเป็นคนรับผิดชอบ ผู้ใช้ ผู้พัฒนา/ผู้ผลิตเอไอ หรือตัวเอไอเอง สิ่งที่น่าสนใจคือ กฎหมายประเทศอเมริกาพิจารณาความรับผิดชอบจากเจตนา (intention) ซึ่งสามารถอ้างได้ว่า เอไอไม่สามารถแสดงเจตนาได้ ดังนั้นเราจึงไม่สามารถให้เอไอรับผิดชอบจากเหตุที่เกิดขึ้น

3. Implications of AI on human

อดีตสอนให้เรารู้ว่าเทคโนโลยีมีผลกับความคิดและชีวิตประจำวันของเรา เช่น การมีรถทำให้เราเดินทางไปไหนมาไหนสะดวกรวดเร็วยิ่งขึ้น และการซื้อของบนโลกออนไลน์ก็ทำได้อย่างรวดเร็ว จากตัวอย่างนี้ได้เปลี่ยนนิยามความรู้สึกในอดีตของคำว่า “เร็ว” จากวันมาเป็นหลักวินาทีเท่านั้น เช่นเดียวกันกับเอไอ เมื่อเราใช้และอยู่กับมันมากขึ้น มันจะเปลี่ยนความคิดของเราหรือไม่ มันจะทำให้เรามีความรับผิดชอบทางจริยธรรมน้อยลงหรือไม่ เช่น การรักษาคน การอนุมัติเงินกู้ การจ้างงานคนในกรณีที่มีเครื่องมือตัดสินใจแทนเรา รวมทั้งจะทำให้คนขาดความเข้าใจความรู้สึกของผู้อื่นหรือไม่ ซึ่งเราควรจะมีกรอบของการมอบอำนาจตัดสินใจให้กับเอไอ โดยที่ไม่ลดความเป็นเพื่อนมนุษย์ร่วมโลกหรือไม่

4. Privacy vs public safety debate

เอไอแอปพลิเคชันหลายๆ อย่างเกี่ยวข้องกับความปลอดภัยสาธารณะ เช่น เอไอสำหรับการจดจำใบหน้าเพื่อใช้จับผู้ร้าย หรือการสอบสวนอาจมีการใช้ข้อมูลส่วนตัว เช่น ใบหน้า ประวัติต่างๆ ของผู้ที่มีโอกาสก่อการร้าย หากมีการตรวจสอบ หน่วยงานรัฐที่ใช้ก็อาจจะไม่สามารถเปิดเผยกระบวนการทำงานของอัลกอริทึมหรือข้อมูลที่ใช้ให้สาธารณะตรวจสอบได้ เพราะอาจมีปัญหาเรื่องความมั่นคง ความปลอดภัย

ดังนั้น ประเด็นเรื่องการยอมเสียข้อมูลส่วนตัวบางอย่างเพื่อความปลอดภัยของสาธารณะก็ยังคงมีอยู่ สุดท้ายจึงเกี่ยวข้องกับความเชื่อมั่นในเทคโนโลยีเอไอว่าจะไม่อคติ รวมทั้ง ความเชื่อใจที่ประชาชนมีต่อผู้นำเอาเอไอไปใช้อย่างรัฐบาล ล่าสุดมีนักวิจัยพบว่าผลิตภัณฑ์เอไอตรวจสอบใบหน้าของบริษัทหนึ่งมีอคติกับคนผิวสีบางรัฐ เช่น ซานฟรานซิสโก ซึ่งมีการพิจารณาห้ามไม่ให้ตำรวจนำไปใช้ เพราะเกรงว่าจะให้อำนาจกับตำรวจมากเกินไปและอาจมีความเสี่ยงในการนำไปใช้ในทางที่ผิด

ความผิดพลาดจากกรณีศึกษาและประเด็นคำถามข้างต้น เราจะป้องกัน วิเคราะห์ และทำอย่างไรให้เอไอปลอดภัย น่าเชื่อถือ ซึ่งมีกลุ่มคนหลายกลุ่มพยายามจะหาเฟรมเวิร์กที่จะช่วยทำให้เอไอปลอดภัยสำหรับคน เช่น ไอเดียที่เกี่ยวข้องกับ human-centered AI, trustworthy AI, value by design, และ ethically-aligned design ซึ่งเราจะกล่าวถึงในบทความครั้งต่อไป สุดท้ายแล้ว เอไอเป็นเทคโนโลยีที่ผู้สร้างและผู้ใช้ต้องมีจริยธรรมและความรอบคอบ เพื่อที่จะใช้มันให้เกิดประโยชน์กับคนและสังคมให้ได้มากที่สุด