ThaiPublica > คอลัมน์ > โดรนสังหาร: เมื่อ AI ทำร้ายมนุษย์

โดรนสังหาร: เมื่อ AI ทำร้ายมนุษย์

13 พฤศจิกายน 2023


ปิติคุณ นิลถนอม

ผ่านไปหลายสัปดาห์แล้วหลังเหตุปะทะกันระหว่างอิสราเอลและกลุ่มฮามาส ภาพความรุนแรงและสูญเสียเกิดขึ้นอยู่ทุกวัน ที่น่าสลดคือการระเบิดที่โรงพยาบาลอัลอาห์ลี ในฉนวนกาซาเมื่อวันที่ 17 ต.ค. ที่ไม่ใช่เป้าหมายทางทหารเลย ซึ่งเป็นการขัดต่อกฎหมายระหว่างประเทศอย่างรุนแรงทำให้มีพลเรือนเสียชีวิตหลายร้อยคน หลังเหตุการณ์ต่างฝ่ายต่างอ้างว่าเป็นฝีมือของฝั่งตรงข้าม ซึ่งถือเป็นการทำสงครามทั้งทางกายภาพและทางข้อมูลข่าวสาร

ผู้เขียนขอแสดงความเสียใจกับครอบครัวผู้สูญเสียทุกท่าน และขอให้ความรุนแรงยุติลงโดยเร็ว และตัวประกันปลอดภัยทุกคน

พูดถึงเรื่องอาวุธสมัยใหม่ที่ใช้ประหัตประหารกันแล้ว มีความน่ากลัวมาก เพราะในปัจจุบันนอกจากขีปนาวุธพิสัยไกลแล้วบางประเทศมีการนำอากาศยานไร้คนขับ (Unmanned Aerial Vehicle (UAV)) หรือที่เรียกกันติดปากว่าโดรน มาเสริมเขี้ยวเล็บให้กับกองทัพ ดังจะเห็นได้จากข่าวการใช้โดรนติดอาวุธเข้าไปถล่มเป้าหมายในสงครามรัสเซียยูเครน หรือที่ซีเรียถูกโดรนติดอาวุธโจมตีโรงเรียนนายร้อยขณะจัดพิธีจบการศึกษาเป็นเหตุให้มีผู้เสียชีวิตกว่าร้อยราย เมื่อเดือนตุลาคมที่ผ่านมา

ที่มาภาพ : https://www.fletcherforum.org/the-rostrum/2019/3/10/the-challenges-of-using-artificial-intelligence-on-lethal-autonomous-weapons-systems

ที่น่ากลัวคือบางประเทศมีแนวคิดที่จะใช้ปัญญาประดิษฐ์หรือ AI มาสอนและฝึกฝนการโจมตี โดยให้ตัดสินใจทำแทนมนุษย์ เมื่อปลายเดือน ต.ค. ที่ผ่านมา Mr. Jan Roar Beckstrom หัวหน้านักวิทยาศาสตร์ข้อมูล (Chief Data Scientist) สำนักงานตรวจเงินแผ่นดินนอร์เวย์ (Office of the Auditor General of Norway) ได้เขียนบทความเรื่อง Killer Robots – A Case for SAIs เผยแพร่ในวารสารการตรวจสอบภาครัฐนานาชาติ หรือ International Journal of Government Auditing โดยได้อธิบายว่าในปัจจุบันเริ่มมีแนวคิดในการพัฒนา AI ให้มีอำนาจตัดสินใจใช้อาวุธทางการทหารแทนมนุษย์ โดยเฉพาะการนำมาใช้กับระบบอาวุธอัตโนมัติที่มีความร้ายแรง หรือ Lethal Autonomous Weapon Systems (LAWS)

Beckstrom เล่าว่าอาวุธที่ทำงานโดยอัตโนมัติมีมาช้านานแล้วตั้งแต่ ระเบิดแบบลวดสะดุด (tripwires) ทุ่นระเบิดต่อต้านบุคคล (Anti-personnel mine) รวมถึงขีปนาวุธนำวิถี ซึ่งอาวุธเหล่านี้จะใช้ระบบที่เรียกว่าติดตั้งแล้วทิ้งเลย “set-up-and-forget” หรือกดสวิตช์ยิงแล้วก็ปล่อยไปเลย “fire-and-forget” ตัวอย่างเช่น การฝังทุ่นระเบิดแล้วปล่อยทิ้งไว้จนมีทหารฝั่งตรงข้ามเดินมาเหยียบ หรือจรวดนำวิถีที่ตั้งโปรแกรมไว้แล้วว่าจะให้ไปตกที่เป้าหมายใด เมื่อกดสวิตซ์ไปแล้วก็ไม่ต้องไปสนใจอะไรอีกเพราะมันจะทำงานด้วยตัวเองเพื่อหาทางไปสู่เป้าหมายตามที่มนุษย์ตั้งไว้

แต่อาวุธสมัยใหม่อย่าง LAWS นั้น AI จะตัดสินใจเองโดยไม่มีมนุษย์เข้าไปเกี่ยวข้องเลย ทั้งนี้เพราะมันถูกสอนแบบ machine learning ให้จำภาพเป้าหมายพลเรือน และเป้าทางทหาร เพื่อให้อัลกอริทึมจำแนกแยกแยะออก และ “ตัดสินใจ” เองได้ว่าจะยิงถล่มเป้าหมายทางทหารใด และเมื่อใด ซึ่งวิธีฝึกฝนนั้นมนุษย์จะทำการป้อนข้อมูลให้มันเรียนรู้ เช่นให้จดจำภาพของเป้าหมายที่เป็นพลเรือนและภาพเป้าหมายทางทหารเป็นพันๆ ภาพ เพื่อให้ AI สามารถแยกแยะออกอย่างถูกต้องแม่นยำถึง 99%

นอกจากนี้ยังฝึกกระทั่งว่าจังหวะเวลาใดหากยิงไปแล้วจะเกิดผลทำลายล้างได้มากที่สุด ก็จะยิงถล่มช่วงนั้น แต่หากวิเคราะห์ว่าปล่อยอาวุธไปแล้วทำลายได้ไม่มากก็จะ “ดึงเช็ง” เอาไว้ก่อน อาจสรุปได้โดยง่ายว่าการทำงานเป็นลักษณะเดียวกันกับ AI ในคอมพิวเตอร์ของเราที่คัดแยกว่าข้อมูลใดเป็นหรือไม่เป็นสแปม

ที่มาภาพ : https://futureoflife.org/fli-projects/ai-companies-researchers-engineers-scientists-entrepreneurs-and-others-sign-pledge-promising-not-to-develop-lethal-autonomous-weapons/

ความน่ากลัวเมื่อให้ AI ตัดสินใจแทนมนุษย์คือเมื่อใดที่มันพลาดแล้ว ใครจะเป็นผู้รับผิดชอบ Beckstrom ยกตัวอย่าง เช่นเมื่อให้ AI ควบคุมโดรนแล้วไปยิงทำลายทหารฝั่งตรงข้ามที่ยกมือยอมแพ้จนล้มตายไป อันเป็นการขัดต่ออนุสัญญาเจนีวาอย่างร้ายแรง หรือตัดสินใจพลาดไปยิงเป้าหมายที่เป็นพลเรือนทำให้ชาวบ้านชาวช่องเขาสูญเสีย จะทำอย่างไร

ในเรื่องนี้เป็นเป็นปัญหาในเชิงศีลธรรมว่าเมื่อไม่สามารถนำ AI ไปขึ้นศาลอาญาระหว่างประเทศที่กรุงเฮกได้ ใครต้องรับผิดชอบ จะเป็นผู้บัญชาการทหาร หรือเป็นกองทัพที่จัดซื้ออาวุธชนิดนี้หรือผู้ผลิตที่พัฒนาอาวุธนี้ขึ้นมา ซึ่งยังเป็นที่ถกเถียงกันอยู่

แนวโน้มในปัจจุบันบางประเทศต้องการเสริมกำลังของตนโดยพัฒนาระบบอาวุธดังกล่าว และเมื่อบางประเทศเริ่มมีแนวคิดในการพัฒนาอาวุธแบบนี้ ก็ย่อมส่งผลทำให้ประเทศอื่นกังวลและอยากมีอย่างเขาเข้าทำนอง “ของมันต้องมี” เมื่อห้ามกองทัพในการจัดซื้อจัดหาไม่ได้ หน่วยงานตรวจสอบก็จำเป็นที่จะต้องเสริมสร้างความโปร่งใสและความพร้อมรับผิดให้กับกองทัพตั้งแต่การวิจัยและพัฒนา การจัดซื้อจัดจ้างรวมถึงการใช้อาวุธเพื่อให้สอดคล้องกับกฎหมายทั้งภายในประเทศและกฎหมายระหว่างประเทศ

ผู้ตรวจสอบภาครัฐอย่าง สตง. ซึ่งส่วนใหญ่ในโลกจะเป็นองค์กรอิสระตามรัฐธรรมนูญ สามารถเป็นหลักในการส่องไฟไปยังกองทัพซึ่งโดยปกติจะดำเนินการกิจกรรมหลายๆอย่างในทางลับ เพื่อให้ประชาชนผู้เสียภาษีทราบว่าใช้จ่ายเงินไปอย่างถูกต้อง คุ้มค่า และไม่เกินความจำเป็น รวมถึงการใช้อาวุธนั้นจะไม่ขัดกับกฎหมายมนุษยธรรมระหว่างประเทศ หรือ International Humanitarian Law (IHL) ที่ปล่อยให้อาวุธยุทโธปกรณ์ไปทำร้ายใครอย่างสะเปะสะปะ

ทั้งนี้ผู้ตรวจสอบสามารถใช้พันธกรณีตามกฎหมายระหว่างประเทศมาเป็นเกณฑ์ในการตรวจสอบได้เพราะประเทศส่วนใหญ่ในโลกได้ให้สัตยาบันอนุสัญญาเจนีวาและพิธีสารที่เกี่ยวข้องแล้ว เช่นการตรวจสอบว่าการจัดหาและพัฒนาอาวุธแบบใหม่โดยเฉพาะการเอา AI มาใช้เป็นไปตาม article 36 ที่กำหนดว่าในการจัดหาอาวุธใหม่ซึ่งรวมถึงการนำเอา AI มาใช้ในการสู้รบ ชาติสมาชิกมีหน้าที่ที่จะต้องใช้ให้สอดคล้องกับกฎหมายระหว่างประเทศ รวมถึง article 57 ที่ต้องตรวจสอบว่าระบบอาวุธที่จัดหามานั้นมีระบบป้องกันข้อผิดพลาดในการโจมตีหรือ “Precautions in attack” หรือไม่ โดยกำหนดว่าชาติที่ใช้อาวุธเพื่อโจมตีจะต้องมีระบบป้องกันเพื่อหลีกเลี่ยงความผิดพลาดที่จะก่อให้เกิดความเสียหายแก่พลเรือนทั้งต่อชีวิตร่างกายและทรัพย์สินของพวกเขา ซึ่งจะต้องสามารถระงับระบบอาวุธได้หากมีสัญญาณว่าเป้าหมายที่กำลังจะโจมตีไม่ใช่เป้าหมายทางการทหาร

Beckstrom ทิ้งท้ายไว้อย่างน่าคิดว่าอาวุธอย่าง LAWS ทำให้โลกอันตรายมากขึ้น และอยู่ยากขึ้น หากปล่อยให้ AI ตัดสินใจว่าจะโจมตีศัตรูเมื่อใด เราจะมั่นใจได้ยังไงว่า AI จะมีระบบป้องกันและระงับยับยั้งได้ด้วยตนเองเพื่อไม่ให้ทำร้ายชีวิตและทรัพย์สินของประชาชนตาดำๆ และมนุษย์อย่างเราจะหมดความหมายไปหรือไม่

เราไม่สามารถปล่อยให้กองทัพตอบคำถามเหล่านี้ได้โดยลำพัง เพราะการสร้างความโปร่งใสและตรวจสอบได้ไม่สามารถเกิดขึ้นได้เลยหากขาดการตรวจสอบจากหน่วยงานภายนอกกองทัพที่เป็นอิสระ ที่จะให้คำแนะนำให้กิจกรรมต่างๆของกองทัพเป็นไปตามกฎหมายภายในและกฎหมายระหว่างประเทศ เพื่อลดอันตรายและความเสี่ยงที่จะเกิดจากการใช้อาวุธลักษณะดังกล่าว

ในโลกปัจจุบันภัยคุกคามต่างๆทั้งที่เกิดจากธรรมชาติอย่างภาวะโลกรวน (ซึ่งจริงๆก็ฝีมือมนุษย์นั่นแหละ) และที่เกิดจากมนุษย์ด้วยกันมีผลต่อความผาสุขของประชาคมโลกอยู่ตลอดเวลา ความขัดแย้งที่นำไปสู่สงครามเกิดขึ้นอยู่รอบตัวเรา เช่นความขัดแย้งของรัสเซียยูเครน อิสราเอลและปาเลสไตน์ แม้กระทั่งความไม่ปกติของทะเลจีนใต้ที่มีข้อพิพาทอยู่เนืองๆทำให้แต่ละประเทศเตรียมความพร้อมโดยเฉพาะการมีแนวคิดที่จะนำเทคโนโลยีสมัยใหม่มาใช้ในการป้องกันประเทศ

อย่างไรก็ตามการใช้มันเฉพาะเท่าที่จำเป็นและไม่ขัดต่อกฎหมายระหว่างประเทศด้านมนุษยธรรมย่อมเป็นสิ่งที่ขาดไม่ได้ เราจะปล่อยให้เกิดภาพผู้คนทั่วไปได้รับความสูญเสียไม่ได้แล้ว หน่วยงานตรวจสอบรวมถึงประชาชนจำเป็นที่จะต้องจับตาดูรัฐบาลในประเทศของตน เพื่อให้พัฒนาและใช้อาวุธยุทโธปกรณ์อย่างมีความรับผิดชอบ

ในโลกอุดมคติการเจรจาเพื่อไม่ให้เกิดสงครามใดๆขึ้นคือสิ่งที่ดีที่สุด แต่ในทางความเป็นจริงคงเป็นไปไม่ได้ ตราบใดที่คู่ขัดแย้งยังถือทิฐิมานะกันแบบนี้ แต่อย่างน้อยขอแค่ให้สงครามจำกัดขอบเขตและไม่ให้กระทบต่อประชาชนผู้ไม่รู้อีโหน่อีเหน่อีกเลย

เอกสารประกอบการเขียน

https://www.thaipbs.or.th/news/content/332518

https://www.pptvhd36.com/news/%E0%B8%95%E0%B9%88%E0%B8%B2%E0%B8%87%E0%B8%9B%E0%B8%A3%E0%B8%B0%E0%B9%80%E0%B8%97%E0%B8%A8/202281

https://intosaijournal.org/journal-entry/killer-robots-a-case-for-sais/

https://www.fletcherforum.org/the-rostrum/2019/3/10/the-challenges-of-using-artificial-intelligence-on-lethal-autonomous-weapons-systems

https://futureoflife.org/fli-projects/ai-companies-researchers-engineers-scientists-entrepreneurs-and-others-sign-pledge-promising-not-to-develop-lethal-autonomous-weapons/