5 ความเสี่ยง Generative AI ที่มีต่อองค์กร

Generative AI

ความก้าวหน้าอย่างรวดเร็วของนวัตกรรมปัญญาประดิษฐ์ หรือ “เอไอ” แบบรู้สร้าง (generative AI) หรือ AI ที่ออกแบบมาให้มีความสามารถในการ “สร้างใหม่” จากชุดข้อมูลที่มีอยู่ด้วยอัลกอริทึมแบบ generative model ทำให้เกิดความวิตกด้านความปลอดภัยและความเสี่ยงตามมา

“เอวิวา ลิทาน” รองประธานฝ่ายวิจัยการ์ตเนอร์ กล่าวว่า generative AI อยู่รอบตัวเรา และการพัฒนาจะไม่หยุดอยู่เท่านี้ องค์กรจำเป็นต้องดำเนินการตั้งแต่ต้น เพื่อกำหนดกลยุทธ์ภาพรวมสำหรับจัดการด้านความน่าเชื่อถือความเสี่ยง และการรักษาความปลอดภัยของเทคโนโลยีปัญญาประดิษฐ์ หรือ AI TRiSM (AI trust, risk and security management) ซึ่งมีความจำเป็นเร่งด่วน เพื่อเรียนรู้ และเข้าใจเครื่องมือ AI TRiSM สำหรับใช้จัดการข้อมูลและกระบวนการระหว่างผู้ใช้กับบริษัทที่เป็นเจ้าของโมเดลพื้นฐานของ generative AI

“เวลานี้ยังไม่มีเครื่องมือสำเร็จรูปในตลาดที่รับรองความเป็นส่วนตัวแก่ผู้ใช้อย่างเป็นระบบ หรือกรองเนื้อหาได้อย่างมีประสิทธิภาพ เมื่อนำโมเดลเหล่านี้มาใช้ เช่น การกรองข้อมูลที่ไม่ถูกต้องออกจากข้อเท็จจริง รูปภาพที่ไม่มีอยู่จริง เนื้อหาที่มีลิขสิทธิ์หรือข้อมูลที่เป็นความลับ นักพัฒนา AI จึงต้องทำงานร่วมกับผู้กำหนดนโยบาย รวมถึงหน่วยงานกำกับดูแลที่เกิดขึ้นมาใหม่ เพื่อกำหนดนโยบาย และวางแนวทางปฏิบัติสำหรับกำกับดูแลและการจัดการความเสี่ยงของเอไอ”

โดย generative AI ก่อให้เกิดความเสี่ยงใหม่ ๆ คือ 1.การล่อลวงด้วยภาพลวงตา (hallucinations) และการปลอมแปลง อาทิ ข้อมูลที่ผิดแปลกไปจากข้อเท็จจริง ซึ่งกำลังเป็นปัญหายอดนิยม และเกิดขึ้นแล้วกับโซลูชั่น chatbot ของ generative AI กรณีข้อมูลการฝึกอบรม, การตอบสนองที่มีอคติ ซึ่งตรวจจับได้ยาก โดยเฉพาะเมื่อโซลูชั่นมีความน่าเชื่อถือ และมีผู้ใช้มากขึ้นเรื่อย ๆ

2.deepfakes นำ generative AI ไปใช้สร้างเนื้อหาที่มีเจตนามุ่งร้าย เช่น รูปภาพปลอม วิดีโอปลอม รวมถึงการบันทึกเสียงปลอม ที่มักใช้โจมตีเหล่าคนดังและนักการเมือง นำไปสร้างและเผยแพร่ข้อมูลที่ก่อให้เกิดความเข้าใจผิด หรือแม้กระทั่งใช้สร้างบัญชีปลอม หรือเข้าไปยึดและเจาะบัญชีที่ถูกต้องตามกฎหมาย เช่น กรณีภาพพระสันตะปาปาฟรานซิสที่สวมแจ็กเกตแฟชั่นสีขาวที่สร้างโดย AI และกลายเป็นไวรัลบนโซเชียลมีเดีย

แม้ดูเหมือนไม่มีพิษภัย แต่ทำให้มองเห็นอนาคตของ deepfakes ในการปลอมแปลงคนมีชื่อเสียงลอกเลียนแบบ ล่อลวง และสร้างความเสี่ยงทางการเมืองต่อตัวบุคคล องค์กร และรัฐบาล

3.ความเป็นส่วนตัวของข้อมูล (data privacy) เมื่อองค์กรให้สิทธิพนักงานเปิดเผยข้อมูลที่ละเอียดอ่อนและเป็นกรรมสิทธิ์ขององค์กรได้ง่าย ขณะที่ใช้โซลูชั่น generative AI chatbot แอปพลิเคชั่นเหล่านี้อาจจัดเก็บข้อมูลที่ผู้ใช้ป้อนเข้ามา หรือแม้แต่ข้อมูลที่ใช้ป้อนเพื่อฝึกอบรมโมเดลเอไออื่น ๆ

4.ปัญหาด้านลิขสิทธิ์ (copyright issues) แชตบอต generative AI ได้รับการฝึกอบรมด้านข้อมูลอินเทอร์เน็ตจำนวนมาก รวมถึงเนื้อหาที่มีลิขสิทธิ์ โดยอาจมีผลลัพธ์บางอย่างละเมิดการคุ้มครองลิขสิทธิ์หรือทรัพย์สินทางปัญญา หากไม่มีการอ้างอิงแหล่งที่มา หรือมีความโปร่งใสเกี่ยวกับวิธีสร้างผลลัพธ์ ดังนั้นวิธีเดียวที่จะลดความเสี่ยง คือให้ผู้ใช้ตรวจสอบข้อเท็จจริง เพื่อให้แน่ใจว่าไม่ได้ละเมิดลิขสิทธิ์หรือสิทธิในทรัพย์สินทางปัญญา

และ 5.ข้อกังวลด้านความปลอดภัยทางไซเบอร์ (cybersecurity concerns) ผู้โจมตีใช้เครื่องมือเหล่านี้สร้างโค้ดอันตราย (malicious code) ได้ง่ายขึ้น ดังนั้นผู้ขายที่นำเสนอโมเดลพื้นฐาน generative AI ต้องให้ความมั่นใจกับลูกค้าว่าได้มีการฝึกฝนและทดสอบโมเดลดังกล่าว เพื่อปฏิเสธคำขอด้านความปลอดภัยทางไซเบอร์ที่เป็นอันตราย

ผู้บริหาร “การ์ตเนอร์” ยังกล่าวถึงการรับมือและจัดการความเสี่ยงจาก AI ด้วยว่า มีแนวทางทั่วไปที่ดึงศักยภาพ chatGPT และแอปพลิเคชั่นที่คล้ายกันมาใช้ 2 แบบ คือ out-of-the-box model ที่ใช้ประโยชน์จากบริการที่มีอยู่เดิม โดยไม่ปรับแต่งค่าใด ๆ และ prompt engineering ที่ใช้เครื่องมือสร้าง ปรับแต่ง และประเมินข้อมูลอินพุตและเอาต์พุต

การใช้ out-of-the-box model องค์กรต้องตรวจสอบข้อมูลเอาต์พุตของโมเดลทั้งหมดด้วยตนเอง เพื่อตรวจหาผลลัพธ์ที่ไม่ถูกต้อง ข้อมูลที่ผิดหรือคลาดเคลื่อนไม่เป็นกลาง โดยกำหนดกรอบการกำกับดูแลและการปฏิบัติตามหลักธรรมาภิบาล พร้อมวางนโยบายที่ชัดเจน ห้ามพนักงานถามคำถามที่เปิดเผยข้อมูลองค์กรหรือข้อมูลส่วนบุคคลที่ละเอียดอ่อน


ส่วนการใช้ prompt engineering มีมาตรการลดความเสี่ยงพร้อมใช้อยู่แล้ว องค์กรควรดำเนินการตามขั้นตอน เพื่อปกป้องข้อมูลภายในและข้อมูลสำคัญอื่น ๆ ที่ใช้สื่อสารกับเอไอในโครงสร้างพื้นฐานของบุคคลที่สาม โดยการสร้างและจัดเก็บข้อความการสื่อสารทางวิศวกรรมกับเอไอให้เป็นสินทรัพย์ถาวร