Tech Times มัชฌิมา จันทร์สว่างภูวนะ
ท่ามกลางเสียงเรียกร้องสันติภาพของโลก มหาอำนาจอย่างสหรัฐ และรัสเซีย กลับยืนยันที่จะเดินหน้าพัฒนา “หุ่นยนต์สังหาร” เพื่อใช้เป็นอาวุธสงครามไฮเทคต่อไป
ประเทศสมาชิกส่วนใหญ่ที่เข้าร่วมประชุมสหประชาชาติว่าด้วยสนธิสัญญาการใช้อาวุธบางชนิดที่จัดขึ้นเมื่อวันที่ 13-17 ธันวาคม ที่กรุงเจนีวาเรียกร้องให้มีการแบนการใช้งาน “หุ่นยนต์สังหาร” หรือควรออกกฎหมายควบคุม
- ร้านธงฟ้า 1.4 แสนแห่ง พร้อมรับดิจิทัลวอลเลต เช็กจังหวัดไหนร้านธงฟ้ามาก-น้อยสุด
- นักท่องเที่ยวเข้าต่ำแสน หวั่นโลว์ซีซั่นทรุดหนัก ททท.ชี้กระทบสั้นยอดบุ๊กกิ้งแอร์ไลน์แน่น
- เปิด 10 อันดับมหาวิทยาลัยรัฐ-ราชภัฏ-เอกชน ที่ได้รับความนิยมมากสุด
แต่สหรัฐ รัสเซีย อังกฤษ และอีกไม่กี่ประเทศที่มีผลประโยชน์เกี่ยวข้องกลับไม่ยอมยกมือสนับสนุน ทำให้มตินี้ต้องตกไป
“หุ่นยนต์สังหาร” ก็คือ “โดรน”ที่เห็นกันทั่วไป ต่างกันตรงที่มันมาพร้อมอาวุธครบมือ ไม่ว่าจะเป็นปืนกลระเบิดชีวภาพ หรือแม้กระทั่งระเบิดนิวเคลียร์ ทำให้โดรนตัวเล็ก ๆ กลายเป็นเครื่องจักรสังหารขึ้นมาทันที
ที่น่ากังวลคือ “หุ่นยนต์สังหาร” ที่ใช้งานในกองทัพทั่วโลก เป็นหุ่นยนต์สังหารแบบไร้คนควบคุม (autonomous killer robots) ซึ่งเมื่อติดตั้งโปรแกรมเสร็จจะปล่อยออกจากฐานทัพเพื่อบินไปจัดการกับเป้าหมายได้อย่างอิสระ
สาเหตุที่มีการเคลื่อนไหวเพื่อคัดค้านการผลิต และพัฒนา “หุ่นยนต์สังหาร” เพราะมีแนวโน้มที่อาวุธประเภทนี้จะเข้าสู่ตลาด “แมส” ได้ง่ายเพราะราคาถูกและใช้งานง่าย
นอกจากนี้ การใช้หุ่นยนต์ไปฆ่าคนอื่นยังก่อให้เกิดคำถามทั้งด้าน “จริยธรรม” และ “กฎหมาย” ว่าอะไรคือ เส้นแบ่งระหว่าง “การสู้รบในสงครามแบบมีเกียรติ” กับ “การสังหารหมู่อย่างโหดเหี้ยม”
“เอมิเลีย จาวอสกี้” นักวิทยาศาสตร์การแพทย์ และผู้บริหาร The Future of Life Institute มองว่า การที่ยูเอ็นกำหนดให้ต้องมีมติเป็น “เอกฉันท์” ถึงจะออกกฎระเบียบมาควบคุมการใช้อาวุธประเภทนี้ได้
เท่ากับเป็นการปิดประตูแพ้ตั้งแต่แรก แค่มีไม่กี่ประเทศยกมือคัดค้านก็เท่ากับจบเกมทันที ซึ่งตอกย้ำให้เห็นว่า ยูเอ็นยังเป็นกลไกที่ล้มเหลวในการจัดการกับภัยคุกคามที่เกิดจากการใช้เทคโนโลยีสมัยใหม่
ขณะที่ “เจมส์ ดาส” นักวิชาการด้านสิทธิมนุษยชน เขียนบทความใน The Conversation ระบุว่า สหรัฐลงทุนในงานวิจัยและพัฒนา “อาวุธไร้คนควบคุม” ไปแล้ว 1.8 หมื่นล้านเหรียญในช่วงปี 2016-2020 ท่ามกลางข้อกังขาถึงประสิทธิภาพและความแม่นยำของ AI ในการล็อก “เป้าหมาย”
เจมส์ตั้งคำถามว่า แม้กระทั่งบิ๊กเทคอย่าง Amazon หรือ Google ก็เคยหน้าแหกจากระบบ AI ของตนเองมาแล้ว
ความกังวลต่อมาคือ ตลาดค้าอาวุธก็เหมือนตลาดอื่น ๆ ที่ขับเคลื่อนด้วยระบบ demand และ supply เมื่อมีอาวุธสังหาร ที่ “ใช้ง่าย ขายคล่อง” ย่อมมีความต้องการสูงและยากต่อการควบคุม เหมือน “ปืนอาก้า” ที่สมัยหนึ่งเป็นอาวุธสงครามที่ใช้เฉพาะกองทัพโซเวียต มีประสิทธิภาพและราคาย่อมเยา
“แมกซ์ เทคมาร์ก” ศาสตราจารย์จากมหาวิทยาลัย MIT และประธาน The Future of Life Institute มองว่า “หุ่นยนต์สังหาร” กำลังจะกลายเป็น “weapon of choice” สำหรับ “ทุกคน” ที่ต้องการอาวุธไปฆ่าใครสักคน
นอกจากนี้ การที่มหาอำนาจแข่งกัน “พัฒนา” อาวุธชนิดหนักอาจนำไปสู่การเกิดสงครามบ่อยครั้งขึ้นในอนาคต เพราะกองทัพสามารถอ้างได้ว่าการใช้ “หุ่นยนต์สังหาร” ระหว่างสงครามคือการช่วยเซฟชีวิตของทหาร
อีกทั้งด้วยกระบวนการผลิตที่ “ไฮเทค” ทำให้หุ่นยนต์เหล่านี้มีกลไกควบคุมด้าน “จริยธรรม” เพื่อกลั่นกรอง และประเมินสถานการณ์ก่อนปฏิบัติการอยู่แล้วทำให้ “วางใจ” ได้
แต่เจมส์ถามต่อว่า ถ้าหุ่นยนต์ยิงพลาด ไปโดนผู้บริสุทธิ์ใครจะรับผิดชอบ
ตามกฎหมายนานาชาติว่าด้วยวิธีการทำสงครามและการปฏิบัติต่อพลรบและพลเรือนอย่างมีมนุษยธรรมระหว่างสงคราม (Laws of War) ที่บัญญัติขึ้นที่กรุงเจนีวาตั้งแต่ปี 1864 กำหนดให้ต้องมี “ผู้รับผิดชอบ” ความสูญเสียที่เกิดขึ้น
โดยย้ำว่า แม้ว่าทหารจะมี “สิทธิ” ฆ่า “ศัตรู” ระหว่างสงคราม แต่ไม่มีสิทธิสังหาร “พลเรือน”
แต่ถ้าผู้ลงมือคือ หุ่นยนต์ แล้วจะเอาผิดกับใคร หุ่นยนต์ ? ทหารที่ใช้หุ่นยนต์ ? ผู้บัญชาการกองทัพ หรือบริษัทผู้ผลิต
หลายคนอาจคิดว่า การใช้หุ่นยนต์ฆ่าคนคงมีแต่ในหนัง แต่รายงานของสหประชาชาติที่เผยแพร่ในเดือนมี.ค.ยืนยันว่ามีการใช้หุ่นยนต์ฆ่า “คน” มาแล้วจริง ๆ ในสงครามกลางเมืองที่ลิเบีย
ฉะนั้น คำถามสำคัญคือ การปล่อยให้หุ่นยนต์ปฏิบัติการสังหารเป้าหมายโดยไม่มีมนุษย์ควบคุมจะเท่ากับเป็นการจงใจปล่อยให้เกิดสงครามโดยปราศจากผู้รับผิดชอบหรือไม่ ?