วิวาทะ OpenAI-CloseAI ปรากฏการณ์หลังฉากปลดซีอีโอ Sam Altman

ภาพบุุคคล Sam Altman - Patrick T. Fallon / AFP

ย้อนมองปรากฏการณ์ปลดฟ้าผ่า ซีอีโอ OpenAI กับวิธีคิด CloseAI-OpenAI ของคนสายเทค การเมืองเรื่องการพัฒนา-ควบคุมปัญญาประดิษฐ์ ในบอร์ด OpenAI 

หากในแวดวงการเมืองการปกครองมีคำว่า “สายเหยี่ยว-สายพิราบ” ที่แบ่งแยกสไตล์การบริหาร การตัดสินใจ และวิธีคิดของผู้นำ ในวงการเทคโนโลยีก็อาจแบ่งได้เช่นกัน โดยเฉพาะในด้านการพัฒนาปัญญาประดิษฐ์ที่ทุกคนเห็นว่าจะส่งผลกระทบอย่างใหญ่หลวงต่อวัฒนธรรมมนุษยชาติในศตวรรษนี้ ทั้งด้านการให้ประโยชน์และโทษมหันต์ สองด้านของเอไอทำให้มีการแบ่งฝั่งฝ่ายมายาวนานแล้ว

“สายเหยี่ยว” ในวงการเอไอ เห็นทีจะเป็นฝั่งที่มีแนวคิด OpenAI คือการเปิดฐานข้อมูลออกไปอย่างกว้างขวาง เอื้อให้ผู้คนและชุมชนเข้ามาใช้งานโมเดลเอไอแบบโอเพ่นซอร์ส เพื่อระดมการพัฒนาวิทยาการด้านนี้ในทุกด้าน นำไปสู่การใช้งานอย่างไร้ขีดจำกัดและเหนือจินตนาการยิ่ง

ซึ่งแนวคิด OpenAI ก็กลายมาเป็นองค์กรวิจัยพัฒนาเอไอแบบไม่แสวงหาผลกำไรในชื่อ OpenAI แต่ก็มีการเปลี่ยนแปลงการคิดและการระดมทุน และออกโปรดักต์อย่าง ChatGPT ที่คนทั่วโลกได้รู้จักและเห็นพลังของเอไอ กลายเป็นบริษัทเอไอมูลค่า 8 หมื่นล้านเหรียญสหรัฐอย่างรวดเร็ว

“สายพิราบ” ไม่ได้คัดค้านการพัฒนาเอไออย่างหัวชนฝา แต่เห็นว่าการพัฒนาต้องศึกษารอบด้าน ค่อยเป็นค่อยไป เพื่อปกป้องอันตรายที่ยังจินตนาการไม่ถึง ทั้งในทางสังคมและทางด้านการแสวงหากำไร จึงเน้นการใช้งานในระบบปิด เพื่อจำกัดประสิทธิภาพไว้สำหรับงานเฉพาะด้าน และเป็นความลับขององค์กรทำให้เรียกว่า CloseAI

เบื้องหลังฉากปลด Sam Altman ซีอีโอและผู้ร่วมก่อตั้ง OpenAI

เมื่อวันที่ 19 พฤศจิกายน 2566 มีรายงานข่าวที่สร้างความฮือฮาไปทั่ววงการไอที เมื่อคณะกรรมการ (บอร์ด) ของบริษัท OpenAI ได้มีมติขับ “แซม อัลต์แมน” ออกจากตำแหน่งซีอีโอ เนื่องจากไม่สื่อสารตรงไปตรงมา ไว้ใจไม่ได้ จากนั้นก็มีรายงานข่าวต่าง ๆ นานา ว่า “แซม” อาจจะออกไปทำบริษัทเอไอแข่ง หรือไปร่วมพัฒนาชิปเอไอกับบริษัทอื่น

แม้กระทั่งอาจถูก Google ซึ่งกำลังมองหาหัวกะทิพัฒนาเอไอของตัวเองดึงตัวไป รวมถึงนักลงทุนใน OpenAI ก็หันมากดดันบอร์ดให้ดึงตัว “อัลต์แมน” กลับมา

และล่าสุด Microsoft ซึ่งเป็น “พ่อบุญทุ่ม” หัวแรงสำคัญที่สนับสนุน OpenAI จนสามารถเปลี่ยนจากองค์กรวิจัยเอไอไม่แสวงหากำไร เป็นบริษัทเอไอมูลค่า 8.6 หมื่นล้านได้ ได้ยื่นข้อเสนอดึงตัว “แซม อัลต์แมน” กลับมาและจะตั้งหน่วยธุรกิจเอไอแยกให้บริหาร

อย่างไรก็ตาม สิ่งสำคัญคือ “เหตุผล” ที่บอร์ด OpenAI เผยแพร่ต่อสาธารณะสะท้อนให้เห็นความแตกต่างของแนวคิดในการพัฒนาเอไอขั้นสูง เรียกได้ว่ามีทั้ง “สายเหยี่ยว” และ “สายพิราบ” ที่ยื้อยุดกัน

CNBC รายงานว่า คณะกรรมการ 6 คนของ OpenAI ได้แก่

“เกร็ก บร็อคแมน” ผู้ร่วมก่อตั้งและประธานคณะกรรมการ ได้ลาออกจากตำแหน่งเพื่อประท้วงมติไล่ “อัลต์แมน” ออก เขามาช่วยงาน OpenAI ในปี 2020 เขากล่าวว่า เมื่อเวลาผ่านไปได้ตระหนักว่า เมื่อเอไอที่สร้างมีประสิทธิภาพมากขึ้น ใช้งานได้สองทาง และในฐานะนักพัฒนาเทคโนโลยีมีความรับผิดชอบที่จะไม่เพียงแค่สร้าง แต่ต้องนำเสนอสู่โลกว่าจะใช้อย่างไร

“อีเลีย ซุตสเคเวอร์” (Ilya Sutskever) หัวหน้านักวิทยาศาสตร์ของ OpenAI ณ ตอนนี้ เป็นผู้ร่วมก่อตั้ง OpenAI เพียงคนเดียวที่ยังอยู่ในบอร์ดบริหาร เขาเคยทำงานในหน่วยวิจัยเอไอของ Google 3 ปี ก่อนมาร่วมทำองค์กรวิจัย OpenAI ในปี 2018 และยังก่อตั้ง DNNResearch ซึ่งเป็นสตาร์ตอัพด้าน AI และขายให้กับ Google

“อีเลีย” เป็นหนึ่งในผู้ที่วิพากษ์วิจารณ์นโยบายการเปิดกว้างให้ทุกคนเข้าถึงการพัฒนาเอไอตามแนวคิด OpenAI แม้ในช่วงแรกเขาจะเป็นคนร่างคำประกาศของ OpenAI ที่ต้องเปิดเผยซอร์สโค้ดให้สาธารณชนได้เห็น เข้าถึง และนำไปพัฒนาต่อ และเมื่อมีการเปิดตัวโมเดลภาษา GPT4 ซึ่งเป็นเครื่องยนต์สำคัญของ ChatGPT ปรากฏว่าไม่มีการเปิดเผยข้อมูลดังกล่าว นอกจากการสรุปว่าประสิทธิภาพดีขึ้น เขากล่าวว่า

แนวทางของ OpenAI แบบเดิม ๆ เป็นเรื่องผิดพลาด ในเวลาไม่นาน องค์กร-หน่วยงานที่เปิดซอร์สโค้ดของเอไอเป็นแนวคิดที่ผิดไม่ใช่แนวทางที่เหมาะสม การสร้าง GPT-4 เป็นเรื่องไม่ง่าย แต่บริษัทอื่น ๆ อีกมากอยากทำให้ได้แบบเดียวกัน ทำให้การแข่งขันระหว่างผู้เล่นสูง OpenAI จึงเลือกไม่เปิดข้อมูลเหล่านี้ออกมา นั่นเป็นการเป็นแปลงที่ทำให้การพัฒนาเอไอของ OpenAI เดินหน้าสู่ CloseAI

“อดัม ดี’แองเจลโล” ซีอีโอคนปัจจุบันของ Quora ซึ่งเป็นแพลตฟอร์มโซเชียล เขาทำงานสี่ปีที่ Facebook
และเป็น CTO ของบริษัทเทคโนโลยียักษ์ใหญ่ตั้งแต่ปี 2549-2551 เขาไม่ใช่พนักงานของ OpenAI

“ทาชา แม็คควอลีย์” (Tasha McCauley) ไม่ใช่พนักงานของ OpenAI อยู่ในคณะกรรมการบริหารของทั้ง OpenAI และ GeoSim Systems ซึ่งเป็นบริษัทเทคโนโลยีภูมิศาสตร์ เธอเป็นผู้ช่วยนักวิทยาศาสตร์การจัดการอาวุโสที่ Rand Corporation และอยู่ในบอร์ด OpenAI มาตั้งแต่ปี 2018

“เฮเลน โทเนอร์” (Helen Toner) ไม่ใช่พนักงาน OpenAI เธออยู่ศูนย์กำกับดูแล AI ของมหาวิทยาลัยออกซ์ฟอร์ด และเป็นผู้อำนวยการฝ่ายกลยุทธ์สำหรับศูนย์ความปลอดภัยและเทคโนโลยีเกิดใหม่แห่งจอร์จทาวน์มาเกือบห้าปี

เมื่อปีที่แล้ว “โทเนอร์” กล่าวใน Journal of Political Risk ว่า การสร้างระบบ AI ที่ปลอดภัย เชื่อถือได้ ยุติธรรม และตีความได้ ถือเป็นคำถามและปัญหาสำคัญที่ต้องแสวงหาวิธีการ ดังนั้น องค์กรที่สร้างและใช้ AI จะต้องรับรู้ก่อนว่าการพัฒนาเอไอเพื่อเอาชนะคู่แข่งในตลาด หรือในสนามรบ เพียงเท่านั้นจะไม่เกิดประโยชน์ใด ๆ หากระบบที่พวกเขากำลังลงสนามนั้นมีข้อบกพร่อง หรือถูกแฮกได้ หรือคาดเดาไม่ได้

“วิล ฮูร์ด” (William Ballard Hurd) อดีต สส. พรรครีพับลิกัน รัฐเทกซัส ซึ่งทำงานกับซีไอเอมา 9 ปี และเป็นที่ปรึกษาเกี่ยวกับนโยบายด้านไซเบอร์และการพัฒนาเอไอให้กับบริษัทเอกชนจำนวนมาก

กล่าวได้ว่า เมื่อพิจารณาจากพื้นฐานความคิดจนคณะกรรมการแต่ละคนเห็นว่ามีแนวโน้มไปทางการเป็น “สายพิราบ” ที่ยังคงพยายามรักษาจุดยืนการเป็นองค์กรไม่แสวงหาผลกำไร และพัฒนา AI เพื่อประโยชน์ของมวลมนุษยชาติ รวมถึงเชิงนโยบายกำกับดูแล

การที่คณะกรรมการเสนอชื่อ “เอ็มเม็ตต์ เชียร์” (Emmett Shear) ให้มาเป็นซีอีโอชั่วคราวของบริษัทแทน “แซม อัลต์แมน” ถือเป็นหนึ่งในแนวทางที่ตอกย้ำจุดยืนนั้น เพราะ เอ็มเม็ตต์ เชียร์” สนับสนุนการพัฒนาเอไออย่างค่อยเป็นค่อยไป

“เซียร์” เคยโพสต์ข้อความผ่าน X (Twitter) ส่วนตัวเมื่อเดือน ก.ย. 2566 ว่า “เราไม่สามารถเรียนรู้วิธีสร้าง AI ที่ปลอดภัยได้หากไม่มีการทดลอง และเราไม่สามารถทดลองได้โดยไม่มีความก้าวหน้า แต่เราก็ไม่ควรก้าวไปข้างหน้าด้วยความเร็วที่มากเกินไปเช่นกัน”

ย้อนรอยพัฒนาเอไอขั้นสูง จากหัวกะทิ Google สู่ OpenAI

“หมอจิม” หรือ “นพ.ภาณุทัต เตชะเสน” โปรแกรมเมอร์แถวหน้าของไทยผู้ร่วมก่อตั้ง ThaiGPT ได้เคยอธิบายกับ “ประชาชาติธุรกิจ” ว่า การพัฒนาเอไอมีมายาวนานแล้ว และเริ่มต้นที่การเป็น CloseAI เนื่องจากข้อกังวลหลายด้าน

“โดยเฉพาะ Generative A.I. ที่มนุษย์ยังไม่เชื่อว่าจะทำอะไรได้ เราผ่านยุค A.I. winter มาสองครั้ง ครั้งแรกปี 2012 เกิด computer vision ที่คอมพิวเตอร์จำแนกภาพต่าง ๆ ได้ หลังจากนั้นก็เงียบไปจนถึงปี 2017 เกิด neural network ทำให้เกิดแมชีนเลิร์นนิ่งอีกระดับ เกิดสิ่งที่เรียกว่า transformer โดย Google ตอนนี้เองที่โมเดลภาษา GPT1 (generative pretrained transformer) เกิดขึ้น transformer มาจาก Google แต่ในช่วงนั้น Google มองว่าการพัฒนาเอไอยังควรค่อยเป็นค่อยไป เป็น CloseAI”

จากนั้นหัวกะทิที่เริ่มเห็นว่า GenAI น่าจะทำอะไรได้อีกมาก หากมีการเปิดกว้างเพื่อพัฒนา ในตอนแรกมีคนเก่ง ๆ ด้านเอไอได้มารวมกันตั้ง OpenAI ขึ้นในปี 2015 ส่วนหนึ่งก็มาจาก Google

โดยเริ่มที่เป็นองค์กรไม่แสวงผลกำไร เมื่อ OpenAI เกิดขึ้นก็มีการพัฒนา GPT2 ที่เก่งขึ้น จากเดิมที่เอไอตอบอะไรไม่ค่อยตรงก็เริ่มดีขึ้น ล่าสุด GPT3 ปี 2020 ที่มีการจูนใหม่ให้เป็น ChatGPT ที่ไม่ใช่แค่การเทรนเอไอให้ตอบตรงคำถาม แต่เป็นการ “ตอบให้มนุษย์พอใจด้วย”

ย้อนไปในช่วงปี 2015-2018 ในวงการไอทีก็มี “วิวาทะ” เรื่องการพัฒนาเอไอว่าจะส่งผลดีหรือผลเสียต่อมนุษย์อย่างกว้างขวาง โดยมีมหาเศรษฐีเทคโนโลยีมากมาย ไม่ว่าจะเป็น อีลอน มัสก์, มาร์ก ซักเคอร์เบิร์ก, บิล เกตต์ และอื่น ๆ ออกมาแสดงวิสัยทัศน์และจุดยืนอย่างคับคั่ง

แต่เมื่อมีการพัฒนาเอไออย่างก้าวกระโดด ทำให้บางคนเริ่มเปลี่ยนท่าที อย่างเช่น มหาเศรษฐี “อีลอน มัสก์” เคยเป็นหนึ่งในสายเหยี่ยวผู้สนับสนุนการพัฒนาเอไอแบบเปิดกว้างอย่างเต็มที่ และมีส่วนร่วมสำคัญในการตั้ง OpenAI ในปี 2015 ด้วย และเมื่อไม่นานมานี้ อีลอน มัสก์ ได้ออกมาเตือนอยู่เนือง ๆ ว่าให้ชะลอการพัฒนาโมเดลเอไอลงไปบ้างเพื่อให้ทุกภาคส่วน และการกำกับดูแลตามทัน