เตรียมรับมือกับภัยคุกคามของ Deepfake

จรัล งามวิโรจน์เจริญ Chief Data Scientist & VP of Data Innovation Lab

ความก้าวหน้าของเทคโนโลยีในปัจจุบันช่วยให้ผู้คนสามารถเชื่อมต่อกันได้อย่างไร้ขอบเขต และพัฒนาวงการสื่อสารมวลชนให้เกิดการเปลี่ยนแปลง จากยุคก่อนที่มีการส่งสารแบบจังหวะเดียว (one-step flow) หรือรับสารทางเดียว ไปสู่การสื่อสารแบบสองทาง (two-way communication) ระหว่างผู้ส่งสารและผู้รับสาร จนถึงปัจจุบันที่ผู้รับสารสามารถที่จะสร้างเนื้อหา (content) ได้ด้วยตัวเอง และเผยแพร่ผ่านช่องทางโซเชียลมีเดีย (social media) ได้อย่างอิสระ

ถึงแม้ว่าเทคโนโลยีคือสิ่งสำคัญที่เข้ามาช่วยพัฒนาและสร้างประโยชน์ในการเผยแพร่ข้อมูลข่าวสาร แต่เทคโนโลยีเองก็เปรียบเสมือนดาบสองคม หากถูกนำไปใช้ในเชิงสร้างสรรค์ ก็จะก่อให้เกิดประโยชน์อย่างมหาศาล แต่หากนำไปใช้ในทางที่ผิด เช่น การบิดเบือนข่าวสาร การส่งต่อข่าวเท็จ หรือการสร้างข่าวเท็จ (disinformation) ก็อาจสร้างความเสียหายทั้งในระดับบุคคลและในวงกว้าง เช่น การสร้างความเสียหายให้กับแบรนด์สินค้า สร้างความเสียหายทางการดำเนินธุรกิจ การสร้างความสับสนเพื่อลดความเชื่อจากสาธารณชนที่มีต่อสังคม การเมือง และการปกครอง

ยิ่งไปกว่านั้น การทำลายความน่าเชื่อถือของสื่อ จะส่งผลกระทบต่อสภาพแวดล้อมทางการเมืองที่เปราะบาง และจุดมุ่งหมายสุดท้ายของผู้ไม่หวังดีคือ ความต้องการให้คนตั้งคำถามหรือไม่เชื่อใจกับทุกสิ่ง ยิ่งทุกวันนี้ที่เทคโนโลยีเอไอ (AI: artificial intelligence) มีประสิทธิภาพที่สามารถส่งเสริมการสร้างข้อมูลที่ผิดได้อย่างแยบยล ยกตัวอย่างเช่น

  • การเลียนแบบเสียงคนอย่างการให้บริการของ Lyrebird or Baidu DeepVoice
  • เครื่องมือที่ช่วยในการตัดต่อ – ลบภาพ เช่น Adobe Cloak
  • การสลับใบหน้าหรือแปลงการขยับหน้า ตา ปาก ของคนคนหนึ่งไปเป็นของอีกคนหนึ่ง เช่น Face2Face, FaceSwap, Deep Video Portraits หรือ LipSync Obama project

และ ดีปเฟก (deepfake) คืออีกหนึ่งรูปแบบของการปลอมแปลงเนื้อหาตั้งแต่ข้อความ ภาพ เสียง วิดีโอ หรือแม้กระทั่งบทความ เช่น การตัดต่อใบหน้าของดาราไปใส่ในวิดีโออนาจาร การปลอมแปลงวิดีโอที่ทำให้คนพูดประโยคที่ต่างจากวิดีโอต้นฉบับ การปลอมแปลงเสียง และการเขียนข่าวลวงที่ทำให้ประชาชนเชื่อถือ ซึ่งผลงานที่ดีปเฟกสร้างขึ้นนั้นมีความแนบเนียน สมจริง ยากที่คนไม่เข้าใจเทคโนโลยีเหล่านี้จะสามารถแยกแยะเองได้ ซึ่งสถิติการเติบโตของวิดีโอดีปเฟกจากช่วงสิ้นปี 2018 ที่ผ่านมามีอัตราการเติบโตขึ้นเกือบ 100% โดยมีจำนวนวิดีโอดีปเฟกสูงถึง 14,678 วิดีโอ (96% เกี่ยวข้องกับหนังอนาจาร)

การทำงานของดีปเฟกคือการนำเอไออัลกอริทึม (AI algorithm) ประเภท deep learning algorithm ที่มีโครงสร้างที่เรียกว่า GANs (generative adversarial networks) ซึ่งโดยปกติเอไออัลกอริทึมประเภทนี้จะถูกนำมาใช้ประโยชน์ในการสร้างข้อมูลสังเคราะห์เพื่อสร้างข้อมูลเพิ่มในงานวิจัยต่างๆ และใช้ตรวจจับความผิดปกติของข้อมูล รวมถึงสามารถตรวจจับดีปเฟกได้ด้วยเช่นกัน

รู้อย่างนี้แล้ว หน่วยงานต่างๆ ทั้งภาครัฐและเอกชน รวมทั้งประชาชน ควรเตรียมพร้อมรับมือกับดีปเฟก รวมถึงสื่อออนไลน์ที่อาจมาในรูปแบบต่างๆ ตั้งแต่ระดับบุคคลไปจนถึงวงกว้างระดับประเทศ ด้วยวิธีการดังนี้

1. Self เริ่มต้นจากตัวเราเอง เพิ่มความระมัดระวัง คิดก่อนลงข้อความหรือแชร์ข้อมูลต่างๆ ผ่านโซเชียลมีเดีย เพราะสิ่งที่เราสื่อออกไปอาจเป็นประโยชน์หรือโทษก็ได้

2. Social/Global Inclusion ดีปเฟกเป็นภัยคุกคามระดับประเทศและนานาชาติ ดังนั้นทุกคนต้องช่วยกันสอดส่องข้อมูลที่เผยแพร่ในช่องทางต่างๆ รับและส่งต่อข้อมูลอย่างมีวิจารณญาณ อีกทั้งควรมีกฎหมายที่ช่วยคุ้มครองผู้ตกเป็นเหยื่อ และควรมีความร่วมมือระดับนานาชาติในการดำเนินการทางกฎหมายกับผู้กระทำความผิดทั้งในและต่างประเทศ มีกระบวนการรายงานและแนวทางการจัดการที่ชัดเจน เพราะงานลักษณะนี้มีตลาดที่ให้บริการทั่วโลก

3. Research สร้างความร่วมมือให้เกิดการทำงานร่วมกันข้ามสาขาวิชา โดยร่วมมือกับองค์กรชั้นนำเพื่อสร้างผู้เชี่ยวชาญและแบ่งปันแนวทางในพัฒนาเทคโนโลยีในการตรวจจับดีปเฟก เพื่อให้เกิดประโยชน์กับส่วนรวม

4. Collaboration การร่วมมือกันทั้งจากกลุ่มสื่อมวลชน กลุ่มประชาสังคม กลุ่มเทคโนโลยี ผู้ให้บริการแพลตฟอร์ม หน่วยงานภาครัฐและเอกชน ในการทำความเข้าใจถึงภัยคุกคาม รวมทั้งสร้างมาตรการความช่วยเหลือ เพื่อให้เกิดการประสานงานที่จะป้องกันภัยคุกคามครอบคลุมในวงกว้าง

5. Ethical ควรส่งเสริมให้ผู้พัฒนาและผู้ใช้งานเอไอคำนึงถึงจริยธรรมในการออกแบบและใช้งานเอไอ รวมถึงมีการกำหนดมาตรฐานการใช้งานทั้งระดับการศึกษา หน่วยงานภาครัฐและเอกชน

นอกจากนี้ ในการพัฒนาหรือวิจัยเทคโนโลยีต่างๆ นั้น เราควรคำนึงถึงความเสี่ยงและผลกระทบที่จะเกิดขึ้นต่อมนุษย์และสังคมทั้งในเชิงบวกและลบ รวมถึงความเสี่ยงที่จะมีการนำงานวิจัยไปใช้ในทางที่ไม่ดี

ซึ่ง Aviv Ovadya ผู้ก่อตั้ง The Thoughtful Technology Project และ Jess Whittlestone ผู้ก่อตั้งกลุ่ม Leverhulme Centre for the Future of Intelligence ได้ให้คำแนะนำไว้ดังต่อไปนี้

1. เพิ่มความเข้าใจเกี่ยวกับขอบเขตของความเสี่ยง และยุทธศาสตร์การจัดการความเสี่ยง

    a) พัฒนาภาษามาตรฐานที่ทุกคนสามารถเข้าใจตรงกัน เพื่อใช้ในการสื่อสารปัญหา ไม่ว่าจะเป็นความเสี่ยง การปองร้าย และการจัดการกับการเผยแพร่งานในพื้นที่สาธารณะ
    b) ร่วมประชุมกับผู้เชี่ยวชาญเพื่อประเมินความเสี่ยงของงานวิจัยด้าน machine learning (ML)
    c) วางแผนรับมือทั้งในระยะสั้นและระยะยาว ในการลดความเสียหายจากการนำเอางานวิจัยไปใช้ในทางที่ผิด

2. สร้างมาตรฐานเพื่อส่งเสริมให้กลุ่มนักวิจัยเกิดความเข้าในเกี่ยวกับผลกระทบของงานวิจัยทางด้าน ML

    a) กำหนดการสัมมนาเชิงปฏิบัติการอย่างสม่ำเสมอ เกี่ยวกับเรื่องของความท้าทายในการเผยแพร่ผลงานด้านการวิจัย
    b) สร้างความตระหนักถึงความเสี่ยงของงานวิจัยด้าน ML รวมถึงการมีส่วนร่วมของผู้ที่ได้รับผลกระทบ และผู้ที่มีส่วนช่วยในจัดการความเสี่ยง
    c)สนับสนุนงานประเมินผลกระทบทั้งเชิงบวกและลบของงานวิจัย

3. สนับสนุนสถาบันและระบบที่เกี่ยวข้องกับงานด้านการวิจัย ML

    a) สนับสนุนให้เกิดขั้นตอนการประเมินความเสี่ยงของโครงการวิจัยโดยผู้เชี่ยวชาญ ก่อนดำเนินงาน เพื่อลดผลกระทบที่อาจเกิดขึ้นต่อนักวิจัย
    b) สร้างระบบการตรวจสอบและจัดการงานวิจัย ที่อนุญาตให้นักวิจัยท่านอื่นสามารถเข้าถึงและช่วยตรวจสอบได้
    c) พัฒนาขั้นตอนการเผยแพร่งานวิจัยที่อาจจะมีความเสี่ยง เพื่อทำให้งานวิจัยบางอย่างสามารถเผยแพร่ได้อย่างปลอดภัยมากขึ้น

    แม้ว่าเราจะเตรียมตัวรับมือกับภัยคุกคามของดีปเฟกไว้พอสมควรแล้ว แต่ก็ยังมีประเด็นปัญหาอื่นๆ ที่ชวนคิดอีกมากมาย เช่น

    1. การใช้เทคโนโลยีเอไอเพื่อตรวจจับดีปเฟก คงเป็นเพียงแค่การให้คำแนะนำที่ไม่สามารถสรุปให้ชัดเจนได้ เพราะดีปเฟกเป็นได้ทั้งในลักษณะของการล้อเลียน การแต่งนิยาย ข่าวลวง การแยกแยะบริบทแต่ละประเภทอาจต้องใช้สื่อหรือแพลตฟอร์มที่สามารถช่วยกลั่นกรอง แต่สิ่งที่สำคัญที่สุดคือการให้ความรู้และการมีส่วนร่วมของประชาชนในการช่วยกันตรวจสอบและสามารถรายงานได้อย่างรวดเร็ว

    2. การเข้าถึงเทคโนโลยีในการตรวจจับดีปเฟกเป็นเรื่องสำคัญสำหรับทุกกลุ่ม โดยเฉพาะเพื่อปกป้องกลุ่มคนที่เปราะบาง

    3. การตรวจจับดีปเฟกปกติมักจะเกิดขึ้นหลังเหตุการณ์ไม่ดีได้เกิดขึ้นไปแล้ว ซึ่งจะสายเกินไปสำหรับเหยื่อที่ได้รับความเสียหาย เราจึงควรมีกฎหมายที่พร้อมจะปกป้องผู้ตกเป็นเหยื่อ ซึ่งถือว่าเป็นสิ่งที่สำคัญมาก รวมถึงการกระทำที่เกิดขึ้นนอกประเทศ เพราะดีปเฟกอาจถูกใช้เป็นอาวุธจากนอกประเทศเพื่อทำให้เกิดความสับสนของคนในประเทศได้เช่นกัน

ทุกวันนี้เราอยู่ในโลกที่คนเรามีหลายตัวตน ทั้งในโลกแห่งความจริงและในโลกเสมือนจริง ซึ่งมีทั้ง cyberspace, virtual reality, หรือแม้กระทั่ง augmented reality สิ่งที่เราเห็นนอกจากจะเป็นสิ่งที่ถูกสังเคราะห์ขึ้นเพื่อประโยชน์ในการสื่อสาร การเรียนรู้ และความบันเทิงแล้ว ยังเปิดโอกาสให้ดีปเฟกสามารถเข้ามาสร้างความสับสน และส่งผลต่อความเชื่อและความศรัทธาของผู้คนในสังคม เพราะฉะนั้นประชาชนทุกคน ตั้งแต่ระดับเด็ก ผู้ใหญ่ ครอบครัว สังคม และองค์กรต่างๆ ควรมีส่วนร่วมในการสร้างจิตสำนึกของการใช้เทคโนโลยี เพื่อลดความเสี่ยงของการใช้เทคโนโลยีในทางที่ผิด

ถ้าเราไม่เริ่มต้นที่ตัวเราแล้วใครจะทำ ใช่ไหมครับ


References:

2019 Brand Disinformation Impact Study

The biggest threat of Deepfakes isn’t the Deepfakes themselves

Social Engineering And Sabotage: Why Deepfakes Pose An Unprecedented Threat To Businesses

Text-based Editing of Talking-head Video

Researchers, scared by their own work, hold back “Deepfakes for text” AI

Reducing malicious use of synthetic media research: Considerations and potential release practices for machine learning

Prepare, Don’t Panic: Synthetic Media and Deepfakes