“บอต” อาสารับฟังปัญหาวัยรุ่น LGBTQ

ธงสีรุ้งโบกสะบัด
Photo by JOE KLAMAR / AFP
Tech Times
มัชฌิมา จันทร์สว่างภูวนะ

ที่ผ่านมาเราอาจคุ้นเคยกับ “แชตบอต” ของบริษัทต่าง ๆ ที่คอยตอบคำถามเกี่ยวกับปัญหาการใช้สินค้าหรือบริการมาบ้างแล้ว แต่ “แชตบอต” ที่ขับเคลื่อนด้วยระบบ AI เหล่านี้อาจมีประโยชน์มากกว่าเป็นแค่บริการหลังการขาย

เพราะล่าสุด มีองค์กรการกุศลแห่งหนึ่งที่นำแชตบอตมาฝึกอาสาสมัครเพื่อให้คำปรึกษากับวัยรุ่น LGBTQ ที่เผชิญกับภาวะซึมเศร้าและมีแนวโน้มที่จะฆ่าตัวตายเป็นการเฉพาะ

ซึ่งนั่นก็คือ Trevor Project องค์กรที่จัดตั้งขึ้นเพื่อป้องกันการฆ่าตัวตายในกลุ่มวัยรุ่น LGBTQ โดยมีบริการให้คำปรึกษาทั้งโทรศัพท์และการ “แชต” จากเจ้าหน้าที่อาสากว่า 1,200 คน ที่พร้อมรับฟังและให้คำปรึกษาแก่วัยรุ่น LGBTQ ตลอด 24 ชม.

ประกอบกับมีรายงานทางวิชาการหลายชิ้นชี้ให้เห็นว่า วัยรุ่น LGBTQ มีแนวโน้มที่จะมีภาวะซึมเศร้าจนอยากฆ่าตัวตายมากกว่าเยาวชนกลุ่มอื่น โดยเฉพาะช่วงโควิดที่ต้องเก็บตัวอยู่บ้านเป็นเวลานาน

ดังนั้นการฝึกเจ้าหน้าที่เพื่อรับมือกับปัญหาของวัยรุ่นกลุ่มนี้จึงจำเป็นต้องใช้เวลาหลายเดือน และส่วนมากจะเป็นการฝึกจำลองบทบาท หรือ role-playing โดยใช้ครูฝึกเป็นคู่ซ้อม

แต่เพื่อประหยัดเวลาและทรัพยากรทำให้ Trevor Project พัฒนาสร้าง “ไรลีย์” และ “ดรูว์” 2 แชตบอตที่ขับเคลื่อนด้วย AI ขึ้นมาเพื่อเป็นคู่ซ้อมให้เจ้าหน้าที่แทน

โดย “ดรูว์” คือ หนุ่มทรานส์วัย 21 จากเมืองไอวีน แคลิฟอร์เนีย ที่ถูกเพื่อนร่วมงานคุกคามอย่างหนักหลังเทคฮอร์โมนแปลงเพศ จนเกิดภาวะซึมเศร้าและอยากจบชีวิตตัวเอง ส่วน “ไรลีย์” คือ วัยรุ่นจากนอร์ทแคลิฟอร์เนีย ที่กำลังเป็นซึมเศร้าหลังเปิดตัวว่าเป็น queer

ทั้งคู่ถูกสร้างขึ้นจากบทสนทนาจำลองในอดีตที่ Trevor Project ใช้ฝึกเจ้าหน้าที่อาสาสมัครมาแล้วหลายรุ่น

ในช่วงไม่กี่เดือนที่ผ่านมา ทั้งดรูว์และไรลีย์เป็นคู่ซ้อมให้กับเจ้าหน้าที่กว่า 1,000 คน ซึ่งหากดูจากบทสนทนาที่มีการบันทึกไว้ ก็แทบบอกไม่ได้เลยว่า ดรูว์หรือไรลีย์นั้นไม่ใช่ “คน” เพราะทั้งคู่สามารถตอบคำถามได้เหมือนจริง แถมมีการหยุดพูดเป็นระยะ ซึ่งยิ่งเพิ่มความตึงเครียดและความกดดันให้กับเจ้าหน้าที่เข้าไปอีก

ระหว่างการ “แชต” เจ้าหน้าที่จะค่อย ๆ เรียนรู้วิธีการสร้างความไว้เนื้อเชื่อใจด้วยการซักถามและรับฟังปัญหาก่อนเสนอความช่วยเหลือหรือคำปรึกษา หลังจากนั้นจะมีครูฝึกตัวจริงเข้ามารีวิวผลงานและให้ฟีดแบ็กเพื่อนำไปปรับใช้เวลาลงมือปฏิบัติจริงต่อไป

อย่างไรก็ดี แม้ “ดรูว์” หรือ “ไรลีย์”จะเหมือนคนแค่ไหน มันก็ยังเป็น “บอต” ที่มีข้อจำกัดอยู่วันยังค่ำ เพราะข้อมูลที่ป้อนเข้าระบบ AI หรือสมองสั่งการของทั้งคู่อาจยังไม่ครอบคลุมทุกเรื่องหรือทุกรูปประโยค

ทำให้มีบางครั้งที่ “ดรูว์” หรือ “ไรลีย์” ไม่เข้าใจคำถาม และตอบกลับเป็นภาษาต่างดาวมาแบบงง ๆ เช่น “sorry, idk :/..”

แต่ทาง Trevor Project มองข้อจำกัดนี้ในแง่ดีว่า เป็นการฝึกให้เจ้าหน้าที่คิดหาคำถามหรือรูปประโยคใหม่ ๆ เพื่อให้ได้คำตอบที่ต้องการ เพราะในสถานการณ์จริง การสื่อสารกับวัยรุ่นที่อยู่ในภาวะซึมเศร้าหรือมีความเครียดสูงไม่ใช่เรื่องง่าย

ดังนั้น การเผชิญกับข้อจำกัดต่าง ๆ จะฝึกให้เจ้าหน้าที่มีความอดทนและยอมรับความจริงว่าการให้ความช่วยเหลือก็มีข้อจำกัดเหมือนกันและคงไม่มีใครแก้ปัญหาให้ใครได้เพียงแค่การพูดคุยเพียงครั้งเดียว

ขณะที่ โจเอล แลม หนึ่งในเจ้าหน้าที่อาสาของ Trevor Project ที่เคยฝึกการให้คำปรึกษากับ “ไรลีย์” มาก่อนบอกว่า เขาประหลาดใจมากที่ไรลีย์ไม่ทำให้เขารู้สึกว่าเหมือนคุยอยู่กับ “บอต” เลย

และยิ่งเมื่อได้ลงสนามให้คำปรึกษาคนจริง ๆ ก็ยิ่งรู้สึกว่า “ไรลีย์” เหมือนกลุ่มวัยรุ่นที่เขาคุยด้วยมาก ๆ โดยเฉพาะตอนที่มันหยุดพูดเป็นพัก ๆ เหมือนกำลังคิดอะไรอยู่ จนบางทีเขายังแอบคิดว่า หรือไรลีย์จะเป็นคนจริง ๆ ไม่ใช่แค่ “บอต”

เอาเป็นว่าถึงปัจจุบัน “บอต” จะทำหน้าที่แทนคนไม่ได้ร้อยเปอร์เซ็นต์ แต่ก็ถือเป็นเครื่องมือฝึกอบรมที่จำเป็น โดยเฉพาะอย่างยิ่งกับสังคมที่ยังขาดแคลนผู้เชี่ยวชาญในการให้คำปรึกษาแก่กลุ่ม LGBTQ อย่างในเวลานี้