รถไร้คนขับ ปลอดภัยจริงหรือ

(AP Photo/David Zalubowski, File)
คอลัมน์ TechTimes
มัชฌิมา จันทร์สว่างภูวนะ

เกิดคำถามอีกครั้งกับระบบขับเคลื่อนไร้คนขับของ Tesla หลังเกิดเหตุรถ Telsa แหกโค้งพุ่งชนต้นไม้ข้างทาง และทำให้ผู้โดยสารเสียชีวิตถึง 2 ราย

เหตุการณ์นี้เกิดขึ้นเมื่อสุดสัปดาห์ก่อนในรัฐเทกซัส โดยตำรวจพบว่าผู้เสียชีวิตคนหนึ่งนั่งอยู่ที่เก้าอี้ข้างคนขับส่วนอีกคนนั่งเบาะหลัง ทำให้สันนิษฐานว่ามีการเปิดใช้ระบบ autopilot ขณะเกิดเหตุ

วันถัดมา อีลอน มัสก์ เจ้าของ Telsa ทวิตว่า จากที่ดูข้อมูล login แล้วไม่พบว่ามีการเปิดใช้ระบบ autopilot แต่ก็ไม่ได้เสนอความเป็นไปได้อื่น

เหตุการณ์นี้กลายเป็นประเด็นร้อนให้ผู้คนถกเถียงกันอีกครั้งถึงเสถียรของระบบขับเคลื่อนไร้คนขับของ Telsa

ทั้งนี้ ไม่กี่ชั่วโมงก่อนเกิดเหตุ อีลอนยังโม้ว่า รถของ Tesla ที่ใช้ระบบ autopilot มีโอกาสเกิดอุบัติเหตุน้อยกว่ารถทั่วไปถึง 10 เท่า โดยเทียบสถิติอุบัติเหตุของ The National Hightway TrafficSafety Administration ว่า รถที่ขับเคลื่อนด้วยระบบ autopilot ประสบอุบัติเหตุเพียงแค่ 1 ครั้งต่อระยะทาง 4.19 ล้านไมล์ ในขณะที่รถทั่วไปมีอุบัติเหตุทุก ๆ 484,000 ไมล์

แต่ผู้เชี่ยวชาญก็ไม่รอช้ารีบแย้งว่าจะเปรียบเทียบกันแบบนั้นไม่ได้ เพราะระบบ autopilot มักเปิดใช้บนถนนไฮเวย์ที่มีโอกาสเกิดอุบัติเหตุน้อยกว่าบนถนนปกติที่มีการจราจรหนาแน่นและซับซ้อนกว่า

ก่อนหน้านี้ Tesla เคยเป็นข่าวฉาวมาแล้วเมื่อมีผู้เสียชีวิตจากการขับรถของบริษัทในขณะที่เปิดระบบ autopilot ในปี 2018 ครั้งนั้น The National Transportation Safety Board ได้สรุปผลการสอบสวนว่า ระบบยังมีข้อจำกัดอีกมาก และย้ำว่าไม่มีรถไร้คนขับยี่ห้อใดในอเมริกาที่สามารถขับเคลื่อนได้ด้วยตัวเอง จึงจำเป็นที่ผู้ขับจะต้องควบคุมการขับขี่

แต่หลังจากข่าวซาไป Tesla ก็เดินหน้าเปิดให้มีการทดลองระบบใหม่ที่มาในชื่อว่า Full Self-Driving (FSD) ที่บริษัทเคลมว่าอัพเกรดจากระบบเดิมและมาพร้อมด้วยฟังก์ชั่นมากมาย ขณะนี้มีลูกค้าราว 2,000 คนเข้าร่วมทดสอบมาตั้งแต่ช่วงปลายปีที่ผ่านมา

อย่างไรก็ตาม มีลูกค้าบางรายโพสต์คลิปบน YouTube ว่ารถมีอาการแปลก ๆ หลายอย่างหลังจากเปิดใช้ FSD เช่น ผู้ขับรายหนึ่งโพสต์ว่ารถพยายามขับขึ้นทางรถไฟขณะที่รถไฟกำลังวิ่งมา เป็นต้น

แม้บริษัทจะบอกแล้วว่าระหว่างเปิดใช้ FSD ลูกค้าจำเป็นต้องนั่งประจำที่คนขับและคอยควบคุมพวงมาลัยแต่ผู้เชี่ยวชาญมองว่า Tesla ควรต้องทำมากกว่านี้เพื่อบริหาร “ความคาดหวัง” ของผู้ใช้งาน

ราช ราชกุมาร นักวิชาการที่ศึกษาเรื่อง autonomous vehicles จาก Carnegie Mellon Universityบอกว่า ลำพังแค่ชื่อระบบว่า Full Self-Driving ก็สามารถสร้างความเข้าใจและความคาดหวังที่ผิดได้แล้ว เพราะมันทำให้เกิดความชะล่าใจว่ารถสามารถขับเคลื่อนได้เองเต็มที่

เขายังตั้งคำถามด้วยว่า ทำไมหน่วยงานที่เกี่ยวข้องถึงปล่อยให้มีการใช้ชื่อนี้อยู่ได้ ทั้ง ๆ ที่เสี่ยงจะเป็นการอวดอ้างสรรพคุณเกินจริง และสร้างความเข้าใจผิดให้ผู้บริโภค

นอกจากนี้ จากการศึกษาของ MIT ที่มอนิเตอร์พฤติกรรมผู้ขับ Tesla จำนวน 19 คนเมื่อปีก่อนพบว่า หลังเปิดใช้ระบบ autopilot แล้ว คนขับมีแนวโน้มจะเหลือบมองนอกเส้นทางบ่อยกว่าปกติ และแนะนำว่าควรมีมาตรการในการควบคุมให้คนขับจดจ่อกับการขับมากกว่านี้

ราชบอกว่า Tesla น่าจะพัฒนาระบบคล้าย ๆ ของ GM ที่มีระบบกล้องภายในและระบบแสงอินฟราเรดคอยมอนิเตอร์ความจดจ่อของคนขับ

จากการตรวจสอบของ CNN พบว่า Tesla ก็มีกล้องติดไว้บริเวณห้องโดยสารเพื่อมอนิเตอร์คนขับแต่ดูเหมือนว่าบริษัทจะไม่ได้ใช้ในการตรวจสอบพฤติกรรมการขับขี่ เพราะมีผู้ทดลองขับอย่างน้อย 2 รายที่โพสต์คลิปว่าเคยหาอะไรมาบังกล้องแล้วก็ยังขับได้ตามปกติ

อีลอน มัสก์ เคยทวิตว่า หากพบผู้ทดลองระบบคนไหนมีพฤติกรรมประมาทจะถอดออกจากโครงการทดสอบทันที แต่บริษัทไม่ได้อัพเดตว่ามีการถอดถอนจริงหรือไม่ และถอดไปแล้วทั้งหมดกี่ราย

อีลอนยังทวิตด้วยว่า บริษัทมีแผนจะเปิดใช้ระบบ FSD อย่างเป็นทางการในเดือนกรกฎาคม โดยจะคิดค่าบริการอยู่ที่ประมาณ 1 หมื่นเหรียญ โดยผู้ใช้สามารถเลือกสมัครใช้บริการแบบรายเดือนหรือใช้เฉพาะกิจในช่วงเวลาสั้น ๆ ได้ เพื่อความประหยัด

อย่างไรก็ตาม ทั้งหมดนี้เป็นทวิตที่เกิดก่อนจะมีอุบัติเหตุครั้งล่าสุด ตอนนี้บริษัทยังคงปิดปากเงียบและปฏิเสธจะให้สัมภาษณ์ต่อสิ่งที่เกิดขึ้นในขณะนี้เจ้าหน้าที่กำลังเร่งตรวจสอบหาสาเหตุที่แท้จริง

แต่ไม่ว่าผลจะออกมาอย่างไร สาวก Tesla ก็ไม่ควรประมาท เพราะนี่คือชีวิตจริงไม่ใช่นิยาย