จรัล งามวิโรจน์เจริญ Chief Data Scientist & VP of Data Innovation Lab บริษัท เซอร์ทิส จำกัด
ความก้าวหน้าของเทคโนโลยีในปัจจุบันช่วยให้ผู้คนสามารถเชื่อมต่อกันได้อย่างไร้ขอบเขต และพัฒนาวงการสื่อสารมวลชนให้เกิดการเปลี่ยนแปลง จากยุคก่อนที่มีการส่งสารแบบจังหวะเดียว (one-step flow) หรือรับสารทางเดียว ไปสู่การสื่อสารแบบสองทาง (two-way communication) ระหว่างผู้ส่งสารและผู้รับสาร จนถึงปัจจุบันที่ผู้รับสารสามารถที่จะสร้างเนื้อหา (content) ได้ด้วยตัวเอง และเผยแพร่ผ่านช่องทางโซเชียลมีเดีย (social media) ได้อย่างอิสระ
ถึงแม้ว่าเทคโนโลยีคือสิ่งสำคัญที่เข้ามาช่วยพัฒนาและสร้างประโยชน์ในการเผยแพร่ข้อมูลข่าวสาร แต่เทคโนโลยีเองก็เปรียบเสมือนดาบสองคม หากถูกนำไปใช้ในเชิงสร้างสรรค์ ก็จะก่อให้เกิดประโยชน์อย่างมหาศาล แต่หากนำไปใช้ในทางที่ผิด เช่น การบิดเบือนข่าวสาร การส่งต่อข่าวเท็จ หรือการสร้างข่าวเท็จ (disinformation) ก็อาจสร้างความเสียหายทั้งในระดับบุคคลและในวงกว้าง เช่น การสร้างความเสียหายให้กับแบรนด์สินค้า สร้างความเสียหายทางการดำเนินธุรกิจ การสร้างความสับสนเพื่อลดความเชื่อจากสาธารณชนที่มีต่อสังคม การเมือง และการปกครอง
ยิ่งไปกว่านั้น การทำลายความน่าเชื่อถือของสื่อ จะส่งผลกระทบต่อสภาพแวดล้อมทางการเมืองที่เปราะบาง และจุดมุ่งหมายสุดท้ายของผู้ไม่หวังดีคือ ความต้องการให้คนตั้งคำถามหรือไม่เชื่อใจกับทุกสิ่ง ยิ่งทุกวันนี้ที่เทคโนโลยีเอไอ (AI: artificial intelligence) มีประสิทธิภาพที่สามารถส่งเสริมการสร้างข้อมูลที่ผิดได้อย่างแยบยล ยกตัวอย่างเช่น
- การเลียนแบบเสียงคนอย่างการให้บริการของ Lyrebird or Baidu DeepVoice
- เครื่องมือที่ช่วยในการตัดต่อ – ลบภาพ เช่น Adobe Cloak
- การสลับใบหน้าหรือแปลงการขยับหน้า ตา ปาก ของคนคนหนึ่งไปเป็นของอีกคนหนึ่ง เช่น Face2Face, FaceSwap, Deep Video Portraits หรือ LipSync Obama project
และ ดีปเฟก (deepfake) คืออีกหนึ่งรูปแบบของการปลอมแปลงเนื้อหาตั้งแต่ข้อความ ภาพ เสียง วิดีโอ หรือแม้กระทั่งบทความ เช่น การตัดต่อใบหน้าของดาราไปใส่ในวิดีโออนาจาร การปลอมแปลงวิดีโอที่ทำให้คนพูดประโยคที่ต่างจากวิดีโอต้นฉบับ การปลอมแปลงเสียง และการเขียนข่าวลวงที่ทำให้ประชาชนเชื่อถือ ซึ่งผลงานที่ดีปเฟกสร้างขึ้นนั้นมีความแนบเนียน สมจริง ยากที่คนไม่เข้าใจเทคโนโลยีเหล่านี้จะสามารถแยกแยะเองได้ ซึ่งสถิติการเติบโตของวิดีโอดีปเฟกจากช่วงสิ้นปี 2018 ที่ผ่านมามีอัตราการเติบโตขึ้นเกือบ 100% โดยมีจำนวนวิดีโอดีปเฟกสูงถึง 14,678 วิดีโอ (96% เกี่ยวข้องกับหนังอนาจาร)
การทำงานของดีปเฟกคือการนำเอไออัลกอริทึม (AI algorithm) ประเภท deep learning algorithm ที่มีโครงสร้างที่เรียกว่า GANs (generative adversarial networks) ซึ่งโดยปกติเอไออัลกอริทึมประเภทนี้จะถูกนำมาใช้ประโยชน์ในการสร้างข้อมูลสังเคราะห์เพื่อสร้างข้อมูลเพิ่มในงานวิจัยต่างๆ และใช้ตรวจจับความผิดปกติของข้อมูล รวมถึงสามารถตรวจจับดีปเฟกได้ด้วยเช่นกัน
รู้อย่างนี้แล้ว หน่วยงานต่างๆ ทั้งภาครัฐและเอกชน รวมทั้งประชาชน ควรเตรียมพร้อมรับมือกับดีปเฟก รวมถึงสื่อออนไลน์ที่อาจมาในรูปแบบต่างๆ ตั้งแต่ระดับบุคคลไปจนถึงวงกว้างระดับประเทศ ด้วยวิธีการดังนี้
1. Self เริ่มต้นจากตัวเราเอง เพิ่มความระมัดระวัง คิดก่อนลงข้อความหรือแชร์ข้อมูลต่างๆ ผ่านโซเชียลมีเดีย เพราะสิ่งที่เราสื่อออกไปอาจเป็นประโยชน์หรือโทษก็ได้
2. Social/Global Inclusion ดีปเฟกเป็นภัยคุกคามระดับประเทศและนานาชาติ ดังนั้นทุกคนต้องช่วยกันสอดส่องข้อมูลที่เผยแพร่ในช่องทางต่างๆ รับและส่งต่อข้อมูลอย่างมีวิจารณญาณ อีกทั้งควรมีกฎหมายที่ช่วยคุ้มครองผู้ตกเป็นเหยื่อ และควรมีความร่วมมือระดับนานาชาติในการดำเนินการทางกฎหมายกับผู้กระทำความผิดทั้งในและต่างประเทศ มีกระบวนการรายงานและแนวทางการจัดการที่ชัดเจน เพราะงานลักษณะนี้มีตลาดที่ให้บริการทั่วโลก
3. Research สร้างความร่วมมือให้เกิดการทำงานร่วมกันข้ามสาขาวิชา โดยร่วมมือกับองค์กรชั้นนำเพื่อสร้างผู้เชี่ยวชาญและแบ่งปันแนวทางในพัฒนาเทคโนโลยีในการตรวจจับดีปเฟก เพื่อให้เกิดประโยชน์กับส่วนรวม
4. Collaboration การร่วมมือกันทั้งจากกลุ่มสื่อมวลชน กลุ่มประชาสังคม กลุ่มเทคโนโลยี ผู้ให้บริการแพลตฟอร์ม หน่วยงานภาครัฐและเอกชน ในการทำความเข้าใจถึงภัยคุกคาม รวมทั้งสร้างมาตรการความช่วยเหลือ เพื่อให้เกิดการประสานงานที่จะป้องกันภัยคุกคามครอบคลุมในวงกว้าง
5. Ethical ควรส่งเสริมให้ผู้พัฒนาและผู้ใช้งานเอไอคำนึงถึงจริยธรรมในการออกแบบและใช้งานเอไอ รวมถึงมีการกำหนดมาตรฐานการใช้งานทั้งระดับการศึกษา หน่วยงานภาครัฐและเอกชน
นอกจากนี้ ในการพัฒนาหรือวิจัยเทคโนโลยีต่างๆ นั้น เราควรคำนึงถึงความเสี่ยงและผลกระทบที่จะเกิดขึ้นต่อมนุษย์และสังคมทั้งในเชิงบวกและลบ รวมถึงความเสี่ยงที่จะมีการนำงานวิจัยไปใช้ในทางที่ไม่ดี
ซึ่ง Aviv Ovadya ผู้ก่อตั้ง The Thoughtful Technology Project และ Jess Whittlestone ผู้ก่อตั้งกลุ่ม Leverhulme Centre for the Future of Intelligence ได้ให้คำแนะนำไว้ดังต่อไปนี้
1. เพิ่มความเข้าใจเกี่ยวกับขอบเขตของความเสี่ยง และยุทธศาสตร์การจัดการความเสี่ยง
-
a) พัฒนาภาษามาตรฐานที่ทุกคนสามารถเข้าใจตรงกัน เพื่อใช้ในการสื่อสารปัญหา ไม่ว่าจะเป็นความเสี่ยง การปองร้าย และการจัดการกับการเผยแพร่งานในพื้นที่สาธารณะ
b) ร่วมประชุมกับผู้เชี่ยวชาญเพื่อประเมินความเสี่ยงของงานวิจัยด้าน machine learning (ML)
c) วางแผนรับมือทั้งในระยะสั้นและระยะยาว ในการลดความเสียหายจากการนำเอางานวิจัยไปใช้ในทางที่ผิด
2. สร้างมาตรฐานเพื่อส่งเสริมให้กลุ่มนักวิจัยเกิดความเข้าในเกี่ยวกับผลกระทบของงานวิจัยทางด้าน ML
-
a) กำหนดการสัมมนาเชิงปฏิบัติการอย่างสม่ำเสมอ เกี่ยวกับเรื่องของความท้าทายในการเผยแพร่ผลงานด้านการวิจัย
b) สร้างความตระหนักถึงความเสี่ยงของงานวิจัยด้าน ML รวมถึงการมีส่วนร่วมของผู้ที่ได้รับผลกระทบ และผู้ที่มีส่วนช่วยในจัดการความเสี่ยง
c)สนับสนุนงานประเมินผลกระทบทั้งเชิงบวกและลบของงานวิจัย
3. สนับสนุนสถาบันและระบบที่เกี่ยวข้องกับงานด้านการวิจัย ML
-
a) สนับสนุนให้เกิดขั้นตอนการประเมินความเสี่ยงของโครงการวิจัยโดยผู้เชี่ยวชาญ ก่อนดำเนินงาน เพื่อลดผลกระทบที่อาจเกิดขึ้นต่อนักวิจัย
b) สร้างระบบการตรวจสอบและจัดการงานวิจัย ที่อนุญาตให้นักวิจัยท่านอื่นสามารถเข้าถึงและช่วยตรวจสอบได้
c) พัฒนาขั้นตอนการเผยแพร่งานวิจัยที่อาจจะมีความเสี่ยง เพื่อทำให้งานวิจัยบางอย่างสามารถเผยแพร่ได้อย่างปลอดภัยมากขึ้น
แม้ว่าเราจะเตรียมตัวรับมือกับภัยคุกคามของดีปเฟกไว้พอสมควรแล้ว แต่ก็ยังมีประเด็นปัญหาอื่นๆ ที่ชวนคิดอีกมากมาย เช่น
-
1. การใช้เทคโนโลยีเอไอเพื่อตรวจจับดีปเฟก คงเป็นเพียงแค่การให้คำแนะนำที่ไม่สามารถสรุปให้ชัดเจนได้ เพราะดีปเฟกเป็นได้ทั้งในลักษณะของการล้อเลียน การแต่งนิยาย ข่าวลวง การแยกแยะบริบทแต่ละประเภทอาจต้องใช้สื่อหรือแพลตฟอร์มที่สามารถช่วยกลั่นกรอง แต่สิ่งที่สำคัญที่สุดคือการให้ความรู้และการมีส่วนร่วมของประชาชนในการช่วยกันตรวจสอบและสามารถรายงานได้อย่างรวดเร็ว
2. การเข้าถึงเทคโนโลยีในการตรวจจับดีปเฟกเป็นเรื่องสำคัญสำหรับทุกกลุ่ม โดยเฉพาะเพื่อปกป้องกลุ่มคนที่เปราะบาง
3. การตรวจจับดีปเฟกปกติมักจะเกิดขึ้นหลังเหตุการณ์ไม่ดีได้เกิดขึ้นไปแล้ว ซึ่งจะสายเกินไปสำหรับเหยื่อที่ได้รับความเสียหาย เราจึงควรมีกฎหมายที่พร้อมจะปกป้องผู้ตกเป็นเหยื่อ ซึ่งถือว่าเป็นสิ่งที่สำคัญมาก รวมถึงการกระทำที่เกิดขึ้นนอกประเทศ เพราะดีปเฟกอาจถูกใช้เป็นอาวุธจากนอกประเทศเพื่อทำให้เกิดความสับสนของคนในประเทศได้เช่นกัน
ทุกวันนี้เราอยู่ในโลกที่คนเรามีหลายตัวตน ทั้งในโลกแห่งความจริงและในโลกเสมือนจริง ซึ่งมีทั้ง cyberspace, virtual reality, หรือแม้กระทั่ง augmented reality สิ่งที่เราเห็นนอกจากจะเป็นสิ่งที่ถูกสังเคราะห์ขึ้นเพื่อประโยชน์ในการสื่อสาร การเรียนรู้ และความบันเทิงแล้ว ยังเปิดโอกาสให้ดีปเฟกสามารถเข้ามาสร้างความสับสน และส่งผลต่อความเชื่อและความศรัทธาของผู้คนในสังคม เพราะฉะนั้นประชาชนทุกคน ตั้งแต่ระดับเด็ก ผู้ใหญ่ ครอบครัว สังคม และองค์กรต่างๆ ควรมีส่วนร่วมในการสร้างจิตสำนึกของการใช้เทคโนโลยี เพื่อลดความเสี่ยงของการใช้เทคโนโลยีในทางที่ผิด
ถ้าเราไม่เริ่มต้นที่ตัวเราแล้วใครจะทำ ใช่ไหมครับ
References:
2019 Brand Disinformation Impact Study
The biggest threat of Deepfakes isn’t the Deepfakes themselves
Social Engineering And Sabotage: Why Deepfakes Pose An Unprecedented Threat To Businesses
Text-based Editing of Talking-head Video
Researchers, scared by their own work, hold back “Deepfakes for text” AI