หุ่นยนต์สังหาร อาวุธไฮเทคที่ไร้การควบคุม

หุ่นยนต์
Tech Times
มัชฌิมา จันทร์สว่างภูวนะ

ท่ามกลางเสียงเรียกร้องสันติภาพของโลก มหาอำนาจอย่างสหรัฐ และรัสเซีย กลับยืนยันที่จะเดินหน้าพัฒนา “หุ่นยนต์สังหาร” เพื่อใช้เป็นอาวุธสงครามไฮเทคต่อไป

ประเทศสมาชิกส่วนใหญ่ที่เข้าร่วมประชุมสหประชาชาติว่าด้วยสนธิสัญญาการใช้อาวุธบางชนิดที่จัดขึ้นเมื่อวันที่ 13-17 ธันวาคม ที่กรุงเจนีวาเรียกร้องให้มีการแบนการใช้งาน “หุ่นยนต์สังหาร” หรือควรออกกฎหมายควบคุม

แต่สหรัฐ รัสเซีย อังกฤษ และอีกไม่กี่ประเทศที่มีผลประโยชน์เกี่ยวข้องกลับไม่ยอมยกมือสนับสนุน ทำให้มตินี้ต้องตกไป

“หุ่นยนต์สังหาร” ก็คือ “โดรน”ที่เห็นกันทั่วไป ต่างกันตรงที่มันมาพร้อมอาวุธครบมือ ไม่ว่าจะเป็นปืนกลระเบิดชีวภาพ หรือแม้กระทั่งระเบิดนิวเคลียร์ ทำให้โดรนตัวเล็ก ๆ กลายเป็นเครื่องจักรสังหารขึ้นมาทันที

ที่น่ากังวลคือ “หุ่นยนต์สังหาร” ที่ใช้งานในกองทัพทั่วโลก เป็นหุ่นยนต์สังหารแบบไร้คนควบคุม (autonomous killer robots) ซึ่งเมื่อติดตั้งโปรแกรมเสร็จจะปล่อยออกจากฐานทัพเพื่อบินไปจัดการกับเป้าหมายได้อย่างอิสระ

สาเหตุที่มีการเคลื่อนไหวเพื่อคัดค้านการผลิต และพัฒนา “หุ่นยนต์สังหาร” เพราะมีแนวโน้มที่อาวุธประเภทนี้จะเข้าสู่ตลาด “แมส” ได้ง่ายเพราะราคาถูกและใช้งานง่าย

นอกจากนี้ การใช้หุ่นยนต์ไปฆ่าคนอื่นยังก่อให้เกิดคำถามทั้งด้าน “จริยธรรม” และ “กฎหมาย” ว่าอะไรคือ เส้นแบ่งระหว่าง “การสู้รบในสงครามแบบมีเกียรติ” กับ “การสังหารหมู่อย่างโหดเหี้ยม”

“เอมิเลีย จาวอสกี้” นักวิทยาศาสตร์การแพทย์ และผู้บริหาร The Future of Life Institute มองว่า การที่ยูเอ็นกำหนดให้ต้องมีมติเป็น “เอกฉันท์” ถึงจะออกกฎระเบียบมาควบคุมการใช้อาวุธประเภทนี้ได้

เท่ากับเป็นการปิดประตูแพ้ตั้งแต่แรก แค่มีไม่กี่ประเทศยกมือคัดค้านก็เท่ากับจบเกมทันที ซึ่งตอกย้ำให้เห็นว่า ยูเอ็นยังเป็นกลไกที่ล้มเหลวในการจัดการกับภัยคุกคามที่เกิดจากการใช้เทคโนโลยีสมัยใหม่

ขณะที่ “เจมส์ ดาส” นักวิชาการด้านสิทธิมนุษยชน เขียนบทความใน The Conversation ระบุว่า สหรัฐลงทุนในงานวิจัยและพัฒนา “อาวุธไร้คนควบคุม” ไปแล้ว 1.8 หมื่นล้านเหรียญในช่วงปี 2016-2020 ท่ามกลางข้อกังขาถึงประสิทธิภาพและความแม่นยำของ AI ในการล็อก “เป้าหมาย”

เจมส์ตั้งคำถามว่า แม้กระทั่งบิ๊กเทคอย่าง Amazon หรือ Google ก็เคยหน้าแหกจากระบบ AI ของตนเองมาแล้ว

ความกังวลต่อมาคือ ตลาดค้าอาวุธก็เหมือนตลาดอื่น ๆ ที่ขับเคลื่อนด้วยระบบ demand และ supply เมื่อมีอาวุธสังหาร ที่ “ใช้ง่าย ขายคล่อง” ย่อมมีความต้องการสูงและยากต่อการควบคุม เหมือน “ปืนอาก้า” ที่สมัยหนึ่งเป็นอาวุธสงครามที่ใช้เฉพาะกองทัพโซเวียต มีประสิทธิภาพและราคาย่อมเยา

“แมกซ์ เทคมาร์ก” ศาสตราจารย์จากมหาวิทยาลัย MIT และประธาน The Future of Life Institute มองว่า “หุ่นยนต์สังหาร” กำลังจะกลายเป็น “weapon of choice” สำหรับ “ทุกคน” ที่ต้องการอาวุธไปฆ่าใครสักคน

นอกจากนี้ การที่มหาอำนาจแข่งกัน “พัฒนา” อาวุธชนิดหนักอาจนำไปสู่การเกิดสงครามบ่อยครั้งขึ้นในอนาคต เพราะกองทัพสามารถอ้างได้ว่าการใช้ “หุ่นยนต์สังหาร” ระหว่างสงครามคือการช่วยเซฟชีวิตของทหาร

อีกทั้งด้วยกระบวนการผลิตที่ “ไฮเทค” ทำให้หุ่นยนต์เหล่านี้มีกลไกควบคุมด้าน “จริยธรรม” เพื่อกลั่นกรอง และประเมินสถานการณ์ก่อนปฏิบัติการอยู่แล้วทำให้ “วางใจ” ได้

แต่เจมส์ถามต่อว่า ถ้าหุ่นยนต์ยิงพลาด ไปโดนผู้บริสุทธิ์ใครจะรับผิดชอบ

ตามกฎหมายนานาชาติว่าด้วยวิธีการทำสงครามและการปฏิบัติต่อพลรบและพลเรือนอย่างมีมนุษยธรรมระหว่างสงคราม (Laws of War) ที่บัญญัติขึ้นที่กรุงเจนีวาตั้งแต่ปี 1864 กำหนดให้ต้องมี “ผู้รับผิดชอบ” ความสูญเสียที่เกิดขึ้น

โดยย้ำว่า แม้ว่าทหารจะมี “สิทธิ” ฆ่า “ศัตรู” ระหว่างสงคราม แต่ไม่มีสิทธิสังหาร “พลเรือน”

แต่ถ้าผู้ลงมือคือ หุ่นยนต์ แล้วจะเอาผิดกับใคร หุ่นยนต์ ? ทหารที่ใช้หุ่นยนต์ ? ผู้บัญชาการกองทัพ หรือบริษัทผู้ผลิต

หลายคนอาจคิดว่า การใช้หุ่นยนต์ฆ่าคนคงมีแต่ในหนัง แต่รายงานของสหประชาชาติที่เผยแพร่ในเดือนมี.ค.ยืนยันว่ามีการใช้หุ่นยนต์ฆ่า “คน” มาแล้วจริง ๆ ในสงครามกลางเมืองที่ลิเบีย

ฉะนั้น คำถามสำคัญคือ การปล่อยให้หุ่นยนต์ปฏิบัติการสังหารเป้าหมายโดยไม่มีมนุษย์ควบคุมจะเท่ากับเป็นการจงใจปล่อยให้เกิดสงครามโดยปราศจากผู้รับผิดชอบหรือไม่ ?