ThaiPublica > คอลัมน์ > “คน” ต้องมาก่อน “เทคโนโลยี” (6) การป้องกันและแก้ปัญหาจากอคติของคะแนนเครดิตทางเลือก

“คน” ต้องมาก่อน “เทคโนโลยี” (6) การป้องกันและแก้ปัญหาจากอคติของคะแนนเครดิตทางเลือก

20 สิงหาคม 2018


สฤณี อาชวานันทกุล

สองตอนที่ผ่านมาผู้เขียนพูดถึงคะแนนเครดิตทางเลือก (alternative credit scoring) ว่าเป็นเครื่องมือสำคัญในการขยายบริการทางการเงินไปยังผู้มีรายได้น้อย แต่ก็มีความเสี่ยงมากมายที่จะซ้ำเติมความเหลื่อมล้ำ เลือกปฏิบัติจากอคติ (prejudice) ที่มีอยู่มากมายในสังคม โดยที่เจ้าหนี้หรือบริษัทผู้ให้บริการข้อมูลคะแนนเครดิตไม่รู้ตัวด้วยซ้ำว่าแบบจำลองของตัวเองมีปัญหา เพราะอัลกอริธึม (algorithm) ที่ทำงานอย่างเป็นเอกเทศโดยปัญญาประดิษฐ์หรือ AI อาจคิดค้นแบบจำลองเครดิตโดยที่คนไม่มีส่วนรู้เห็นใดๆ ด้วย

คะแนนเครดิต
คะแนนเครดิต

เมื่อผู้ให้บริการทางการเงินที่ใช้เทคโนโลยีหรือฟินเทคเริ่มผุดขึ้นเป็นดอกเห็ด และแม้แต่บริษัทที่เก็บข้อมูลคะแนนเครดิตเองก็หันไปหา “ข้อมูลทางเลือก” อย่างเช่นพฤติกรรมการซื้อของออนไลน์ การใช้โซเชียลมีเดีย ฯลฯ มากขึ้น นักวิชาการหลายคนและผู้กำกับดูแลภาครัฐหลายองค์กรก็เริ่มกังวลว่า ข้อมูลทางเลือกมหาศาลหรือ “บิ๊กดาต้า” เหล่านี้จะซ้ำเติมความเหลื่อมล้ำในสังคมให้ถ่างกว้างกว่าเดิม หรือยิ่งกีดกันกลุ่มคนบางกลุ่มออกจากบริการทางการเงินหรือไม่เพียงใด

ยกตัวอย่างเช่น ในปี 2016 เพียงปีเดียว ในสหรัฐอเมริกาประเทศเดียว คณะกรรมการการค้าของรัฐบาลกลาง (Federal Trade Commission) กระทรวงการคลัง และทำเนียบขาว ต่างออกรายงานเกี่ยวกับอคติในอัลกอริธึม โดยเฉพาะโปรแกรมที่ใช้ตัดสินการเข้าถึงสินเชื่อ รายงานเหล่านี้อธิบายกรณีที่อัลกอริธึมซึ่งดู “เป็นกลาง” อาจนำไปสู่การเลือกปฏิบัติที่ไม่ตั้งใจและผิดกฎหมายได้ (อเมริกามีกฎหมายโอกาสการเข้าถึงสินเชื่อที่เท่าเทียม หรือ Equal Credit Opportunity Act ห้ามเจ้าหนี้เลือกปฏิบัติบนพื้นฐานของสีผิว เชื้อชาติ ศาสนา พื้นเพ เพศ สถานภาพครอบครัว หรืออายุ)

รายงานเหล่านี้สรุปปัญหาที่อาจเกิดขึ้นจากบิ๊กดาต้าทางเลือกได้ห้าประการดังนี้

1. คนเข้าไม่ถึงบริการทางการเงินเพราะการกระทำของคนอื่น ไม่ใช่ของตัวเอง ยกตัวอย่างเช่น บริษัทบัตรเครดิตบางแห่งลดเพดานเครดิตของลูกค้าบางคน ไม่ใช่เพราะมีประวัติการชำระหนี้ไม่ดี แต่เป็นเพราะพวกเขาใช้บริการร้านค้าเดียวกันกับลูกค้าคนอื่นที่มีประวัติการชำระหนี้ไม่ดี! (อัลกอริธึมสังเกตว่าคนที่มีประวัติการชำระหนี้ไม่ดีมักจะใช้บริการร้านค้าบางร้านมากกว่า) แบบจำลองทางสถิติทำนองนี้อาจช่วยลดต้นทุนทางการเงินให้กับคนบางคนได้ แต่มันก็อาจทำให้ผู้บริโภคอีกหลายคนถูกกีดกัน หรือต้องจ่ายดอกเบี้ยแพงกว่าปกติ

2. สร้างหรือซ้ำเติมความเหลื่อมล้ำ เวลาผู้ให้บริการใช้บิ๊กดาต้าโฆษณาและโปรโมทผลิตภัณฑ์ทางการเงิน ผู้มีรายได้น้อยอาจไม่รู้เรื่องโปรโมชั่นเหล่านี้เลยเพราะไม่อยู่ใน ‘ถัง’ ของบิ๊กดาต้า และในคอลัมน์นี้ผู้เขียนก็เคยยกตัวอย่างฟินเทคเยอรมันที่ใช้ความสัมพันธ์บนโซเชียลมีเดียมาคำนวณคะแนนเครดิต แปลว่าผู้มีรายได้น้อยที่มีโอกาสสูงว่าจะไม่รู้จักลูกหนี้ชั้นดีของสถาบันการเงินเลย (ไม่ใช่ ‘เพื่อน’ กันบนเฟซบุ๊ก) ก็จะเข้าไม่ถึงบริการทางการเงินเหมือนเดิม

3. ใช้ข้อมูลส่วนบุคคลซึ่งเป็นข้อมูลอ่อนไหว คนหลายคนอาจมีลักษณะหรือพฤติกรรมบางอย่างที่อยากเก็บไว้เป็นความลับ เพราะเป็นข้อมูลที่ทำให้เขาสุ่มเสี่ยงต่อการถูกเลือกปฏิบัติในสังคม แต่แบบจำลองเครดิตทางเลือกอาจ ‘เปิด’ ข้อมูลเหล่านี้ออกมา ยกตัวอย่างเช่น งานวิจัยชิ้นหนึ่งนำข้อมูลเรื่อง “การกดไลก์” บนเฟซบุ๊ก มาผสมกับคำตอบบนแบบสอบถามขนาดสั้น พบว่านักวิจัยสามารถพยากรณ์รสนิยมทางเพศของผู้ใช้ที่เป็นชายถูกต้องร้อยละ 88 พยากรณ์ชาติพันธุ์ของผู้ใช้ถูกต้องร้อยละ 95 พยากรณ์ได้แม้กระทั่งว่าผู้ใช้นับถือศาสนาคริสต์หรืออิสลาม (ถูกต้องร้อยละ 82) สนับสนุนพรรครีพับลิกันหรือเดโมแครต (ร้อยละ 85) หรือเสพสุรา ยาเสพติด หรือบุหรี่หรือไม่ (ระหว่างร้อยละ 65-75)

4. ทำให้บริษัทที่มีเจตนาไม่ดีพุ่งเป้าไปที่กลุ่มเปราะบางได้ บริษัทที่อยากจะหลอกลวงผู้บริโภคสามารถใช้บิ๊กดาต้าในการออกแคมเปญหลอกลวง พุ่งเป้าอย่างจำเพาะเจาะจงไปที่กลุ่มคนที่เปราะบางที่สุด น่าจะ ‘หลอกง่าย’ ที่สุด อาทิ ผู้อาวุโสที่ป่วยเป็นโรคความจำเสื่อม หรือผู้มีรายได้น้อย บิ๊กดาต้าช่วยให้บริษัทต่างๆ ระบุตัวตนและตำแหน่งของกลุ่มเปราะบางได้อย่างง่ายดายและเฉพาะเจาะจงกว่าในอดีตมาก

5. สร้างเหตุผลใหม่ๆ ให้กับการกีดกัน การวิเคราะห์บิ๊กดาต้าอาจทำให้บริษัทมีวิธีใหม่ๆ ที่ไม่ชอบธรรม ในการอ้างว่าทำไมจึงกีดกันกลุ่มคนบางกลุ่มออกไป ยกตัวอย่างเช่น รายงานผลการวิเคราะห์บิ๊กดาต้าชิ้นหนึ่งระบุว่า “คนที่กรอกใบสมัครงานออนไลน์โดยใช้บราวเซอร์ที่ไม่ได้ติดมากับคอมพิวเตอร์ …แต่ต้องลงโปรแกรมเอง (อย่างเช่นไฟร์ฟอกซ์หรือโครมของกูเกิล) ทำงานได้ดีกว่าและเปลี่ยนงานน้อยกว่าคนอื่น” บริษัทนายจ้างอาจยกข้อมูลนี้มาอ้างว่า นี่คือสาเหตุที่บริษัทจะไม่จ้างคนที่ใช้บราวเซอร์ที่ติดมากับคอมพิวเตอร์ ซึ่งก็จะเป็นการเลือกปฏิบัติที่ไม่สมเหตุสมผลและไม่ยุติธรรม

นอกจากนี้ นักวิชาการและผู้เชี่ยวชาญด้านสิทธิผู้บริโภคจำนวนไม่น้อยยังกังวลว่า การใช้และการวิเคราะห์บิ๊กดาต้าทางเลือกจะเปิดให้สถาบันการเงินและฟินเทคต่างๆ ตีความข้อมูลจำนวนมากว่าเป็น ‘ข้อมูลเชิงลบ’ มากกว่าเป็นบวก ทำให้สุดท้ายแล้วผู้บริโภคต้องเผชิญกับคะแนนเครดิตที่แย่กว่าเดิม และต้องจ่ายดอกเบี้ยแพงกว่าเดิม เทียบกับสถานการณ์ก่อนหน้าที่จะใช้ข้อมูลทางเลือก โดยเฉพาะในเมื่อข้อมูลแต่ละตัวเชื่อมโยงกับพฤติกรรมและแรงจูงใจที่แตกต่างกัน

ยกตัวอย่างเช่น การใช้ “ประวัติการชำระค่าเช่าบ้าน” เป็นข้อมูลในการคำนวณคะแนนเครดิตอาจเป็นเรื่องที่ดี เพราะมันเป็นตัวชี้วัดที่มีประโยชน์ ช่วยบ่งชี้ความน่าจะเป็นในการชำระหนี้ได้ เพราะผู้เช่าทุกคนย่อมมีแรงจูงใจอยู่แล้วที่จะจ่ายค่าเช่าตรงเวลา และค่าเช่าก็เป็นเงินก้อนใหญ่พอสมควร แต่การใช้ “ประวัติการชำระค่าน้ำค่าไฟ” ซึ่งเป็นค่าใช้จ่ายรายเดือนเช่นกัน เป็นข้อมูลในการคำนวณคะแนนเครดิตอาจมีปัญหา เพราะครัวเรือนที่มีรายได้น้อยอาจไม่มีเงินพอจ่ายค่าน้ำหรือค่าไฟในเดือนที่ร้อนมากหรือหนาวมาก อาจต้องยกยอดไปชำระรวมกับเดือนถัดไป ซึ่งก็ชำระได้ครบ แต่กว่าจะถึงตอนนั้นครอบครัวนี้อาจถูกกา “ติดลบ” ในคะแนนเครดิตไปแล้ว เพราะคะแนนเครดิตคำนวณทุกเดือน ในกรณีแบบนี้ การรักษาสถานะ ‘ล่องหน’ อาจดีกว่าการมีคะแนนเครดิตแย่!

คำถามหลักในการวัด "อคติที่วัดได้" ภายใต้กฎหมาย Equal Credit Opportunity Act ของอเมริกา
คำถามหลักในการวัด “อคติที่วัดได้” ภายใต้กฎหมาย Equal Credit Opportunity Act ของอเมริกา

แล้วเราจะมีวิธีป้องกันและแก้ปัญหาอคติเหล่านี้อย่างไร? ผู้เขียนคิดว่าจุดตั้งต้นที่จำเป็นมีอยู่สองข้อด้วยกัน ข้อแรก กฎหมายคุ้มครองข้อมูลส่วนบุคคลจะต้องครอบคลุมธุรกิจข้อมูลเครดิต คุ้มครองข้อมูลทุกชนิดที่เอาไปคำนวณคะแนนเครดิต เพื่อเสริมสร้างความโปร่งใสของอัลกอริธึม ซึ่งวันนี้เป็น “กล่องดำ” ไม่มีใครรู้ว่าคะแนนเครดิตใช้ข้อมูลทางเลือกอะไร และคำนวณอย่างไร ผู้บริโภคไม่มีทางรู้เลยว่าถูกปฏิเสธสินเชื่อเพราะอะไร เพราะข้อมูลทางเลือก(ซึ่งอาจมีอคติ หรือผิดพลาด)ที่ตนไม่รู้ว่าถูกเก็บ และนำไปคำนวณคะแนนเครดิตหรือเปล่า

ข้อสอง ผู้กำกับดูแลภาครัฐที่เกี่ยวข้อง เช่น ธนาคารกลาง จะต้องตื่นตัวว่ามีโอกาสที่จะเกิดปัญหาเหล่านี้ จากนั้นก็ปรับปรุงกฎเกณฑ์และแนวปฏิบัติว่าด้วย “การปล่อยสินเชื่อที่เป็นธรรม” (fair lending practices) ให้ครอบคลุมถึงอัลกอริธึมที่ใช้ในฟินเทคและสถาบันการเงิน เป้าหมายหลักเพื่อเปิดเผยเหตุผลที่ผู้บริโภคถูกปฏิเสธสินเชื่ออย่างชัดเจนโปร่งใส และเพื่อให้สถาบันการเงินและฟินเทคทั้งหลายเข้าใจว่า การปล่อยสินเชื่อทั้งที่ใช้และไม่ใช้อัลกอริธึมนั้นอาจมีอคติได้อย่างไร จะได้แก้ไขและป้องกันไม่ให้เกิดปัญหานี้ขึ้น

ไม่เช่นนั้น ความหวังว่าบิ๊กดาต้าและข้อมูลทางเลือกจะช่วยขยายบริการทางการเงินได้อย่างแท้จริง ก็จะเป็นเพียงความฝันลมๆ แล้งๆ เท่านั้น

แล้วกฎหมายคุ้มครองข้อมูลส่วนบุคคลที่ดี และกฎเกณฑ์กำกับฟินเทคที่ดีควรเป็นอย่างไร เมืองไทยอยู่ตรงไหนในเรื่องนี้?

โปรดติดตามตอนต่อไป.