Red Hat เร่งวางรากฐานนักพัฒนาซอฟต์แวร์ เปิดให้ใช้ Open Source Generative AI ผ่าน Red Hat Enterprise Linux AI
วันที่ 6 สิงหาคม 2567 นางสาวสุพรรณี อำนาจมงคล ผู้จัดการประจำประเทศไทยของ บริษัท เร้ดแฮท อิงค์ จำกัด ผู้ให้บริการโซลูชั่นโอเพ่นซอร์ส กล่าวว่า แม้ว่าเทคโนโลยีปัญญาประดิษฐ์ (เอไอ) จะมีมานานแล้ว แต่การเปลี่ยนแปลงในช่วงไม่กี่ปีนี้คือการมาถึงของปัญญาประดิษฐ์แบบ Generative AI ซึ่งขั้นต่อไปคือมองว่าองค์กรธุรกิจจะสามารถนำไปปรับสร้างประโยชน์เพิ่มประสิทธิภาพให้องค์กรได้อย่างไร
โดย เร้ดแฮท เชื่อในเรื่องของการเป็นโอเพ่นซอร์สเปิดให้นักพัฒนาทั่วโลกช่วยกันสร้างนวัตกรรม
“เราทุกคนพูดถึงการเปิดให้คนทั่วไปได้ใช้งาน Generative AI แต่น้อยคนจะเปิดให้นักพัฒนาเอไอซึ่งมีน้อยอยู่แล้ว ให้เข้าถึงช่องทางการพัฒนาแอปพลิเคชั่นให้ง่ายที่สุด และเปิดกว้างที่สุด”
ดังนั้นจากการประชุม Red Hat Summit 2024 ที่ผ่านมาก็มีการกำหนดยุทธศาสตร์เกี่ยวกับ Generative AI ของ เร้ดแฮท ว่าจะคงเชื่อมั่นในการเปิดกว้างแบบ Open Source และมีเครื่องมือบน Open Source Generative AI เพื่อช่วนให้นักพัฒนาและองค์สร้างสรรคบนโซลูชันที่เปิดกว้าง
ดังนั้นจึงมีการเปิดตัว Red Hat Enterprise Linux AI (RHEL AI) แพลตฟอร์มโมเดลพื้นฐานที่ช่วยในการพัฒนา ทดสอบ และใช้ generative AI (GenAI) ได้อย่างราบรื่น
RHEL AI เป็นที่รวมของโซลูชั่นทรงประสิทธิภาพ ประกอบด้วย open source-licensed Granite ซึ่งเป็นตระกูลโมเดลด้านภาษาขนาดใหญ่ (LLM) จาก IBM Research, InstructLab ซึ่งเป็นเครื่องมือในการปรับแต่ง model
โดยอาศัยกระบวนการ LAB (Large-scale Alignment for chatBots) และแนวทางการพัฒนาโมเดลที่ขับเคลื่อนโดยคอมมิวนิตี้ผ่าน InstructLab project โซลูชันเหล่านี้แพ็กรวมกันเป็น RHEL image ที่ช่วยให้ติดตั้ง RHEL AI ได้ไม่ยุ่งยากผ่าน bootable container ที่สามารถปรับให้เหมาะกับการใช้งานกับเซิร์ฟเวอร์แต่ละเครื่องบนไฮบริดคลาวด์
และยังบรรจุเป็นส่วนหนึ่งของ OpenShift AI ซึ่งเป็นแพลตฟอร์มการดำเนินงานที่เป็นไฮบริดแมชชีนเลิร์นนิ่ง (MLOps) ของ Red Hat ที่ใช้รันโมเดลต่าง ๆ และ InstructLab ในระดับความต้องการต่าง ๆ บนสภาพแวดล้อมที่เป็น distributed cluster
การเปิดตัว ChatGPT ทำให้ความสนใจ GenAI เพิ่มขึ้นมากในแง่ผู้ใช้งาน และทำให้กระแสด้านนวัตกรรมเพิ่มขึ้นอย่างรวดเร็วนับแต่นั้นมา องค์กรต่างเริ่มเปลี่ยนโฟกัสจากการประเมินบริการ GenAI ในระยะเริ่มแรก ไปเป็นการสร้างแอปพลิเคชันที่ใช้ AI
นอกจากนี้ ระบบนิเวศของโอเพ่นโมเดล เป็นตัวเลือกที่เติบโตอย่างรวดเร็ว เป็นปัจจัยกระตุ้นให้เกิดนวัตกรรมด้าน AI และแสดงให้เห็นว่าจะไม่มีการใช้ “โมเดลเดียวควบคุมทุกอย่าง” อีกต่อไป ลูกค้าจะได้รับประโยชน์จากทางเลือกหลากหลายที่ตอบโจทย์ความต้องการเฉพาะด้านของตน และนวัตกรรมแบบเปิดจะช่วยเร่งสิ่งเหล่านี้ให้เกิดเร็วขึ้น
การนำกลยุทธ์ AI ไปใช้นั้นต้องการมากกว่าการเลือกโมเดล หากจะนำ AI ไปใช้ องค์กรด้านเทคโนโลยีต้องการความเชี่ยวชาญในการปรับแต่งโมเดลที่จะใช้กับงานที่มีลักษณะเฉพาะของตน รวมถึงจัดการกับค่าใช้จ่ายหลัก ๆ การขาดแคลนทักษะด้าน data science ประกอบกับข้อกำหนดทางการเงินที่สำคัญ ได้แก่
การจัดซื้อจัดหาโครงสร้างพื้นฐาน AI หรือการใช้บริการด้าน AI ต่าง ๆ
กระบวนการที่ซับซ้อนของการปรับแต่ง AI models ให้ตรงตามความต้องการเฉพาะของธุรกิจ
การผสานรวม AI เข้ากับแอปพลิเคชั่นต่าง ๆ ขององค์กร
การบริหารจัดการแอปพลิเคชั่นและไลฟ์ไซเคิลของโมเดล
องค์กรต่าง ๆ ต้องสามารถเพิ่มจำนวนคนที่สามารถทำงานกับโครงการและความคิดริเริ่มด้าน AI ให้มากขึ้น เพื่อลดอุปสรรคในการใช้นวัตกรรมด้าน AI ได้อย่างแท้จริง และต้องควบคุมค่าใช้จ่ายให้ได้ไปพร้อมกันด้วย
Red Hat ตั้งเป้านำประโยชน์ของโปรเจกต์ที่เป็นโอเพ่นซอร์สจริง ๆ มาใช้กับ GenAI เพื่อขจัดอุปสรรคเหล่านี้ เช่น InstructLab alignment tools, Granite models และ RHEL AI ซึ่งสามารถเข้าถึงการใช้งานได้ง่าย ใช้ซ้ำได้ โปร่งใส และเปิดกว้างให้มีส่วนร่วม contribute ได้ มาใช้กับ GenAI เพื่อขจัดอุปสรรคเหล่านี้
สร้าง AI แบบโอเพ่น ด้วย InstructLab
IBM Research ได้สร้าง Large-scale Alignment for chatBots (LAB) technique ซึ่งเป็นแนวทางสำหรับ model alignment ที่ใช้ taxonomy-guided synthetic data generation และเฟรมเวิร์กใหม่ที่ใช้ปรับแต่งแบบหลายเฟส แนวทางนี้ช่วยให้การพัฒนา AI models เปิดกว้างมากขึ้น ให้ผู้ใช้ทุกคนเข้าใช้ได้
โดยไม่ต้องอาศัยคำอธิบายของมนุษย์ที่ต้องเสียค่าใช้จ่ายสูง และลดการพึ่งพาโมเดลที่มีกรรมสิทธิ์ต่าง ๆ การใช้วิธีการของ LAB ช่วยให้โมเดลต่าง ๆ มีประสิทธิภาพเพิ่มขึ้นด้วยการระบุทักษะและความรู้ที่แนบมากับอนุกรมวิธาน และสร้างข้อมูลสังเคราะห์จากข้อมูลเหล่านั้นได้ในวงกว้าง เพื่อวางแนวทางให้กับโมเดล และนำข้อมูลที่สร้างขึ้นนั้นไปใช้เทรนด์โมเดล
หลังจากพบว่าแนวทางของ LAB ช่วยเพิ่มประสิทธิภาพให้กับโมเดลอย่างมาก IBM และ Red Hat จึงตัดสินใจเปิดตัว InstructLab ซึ่งเป็นโอเพ่นซอร์สคอมมิวนิตี้ที่สร้างขึ้นด้วยแนวทางของ LAB และ open source Granite models จาก IBM
ทั้งนี้ InstructLab project มีจุดมุ่งหมายเพื่อนำการพัฒนา LLM มาสู่มือของนักพัฒนาซอฟต์แวร์ ด้วยการจัดหา สร้าง และมีส่วนร่วมสนับสนุน LLM ด้วยวิธีง่าย ๆ เหมือนกับการมีส่วนร่วมสนับสนุน open source project อื่น ๆ
ในการเปิดตัว InstructLab นี้ IBM ยังได้เปิดตัว Granite English language and code models in the open โมเดลเหล่านี้เปิดตัวภายใต้ไลเซนส์ของ Apache มีความโปร่งใสของชุดข้อมูลต่าง ๆ ที่ใช้เทรนด์โมเดลเหล่านี้ Granite 7B English language model รวมอยู่ใน InstructLab community ที่ที่ผู้ใช้ปลายทางสามารถมีส่วนร่วม contribute ทักษะและความรู้ต่าง ๆ เพื่อร่วมพัฒนาโมเดลนี้ เหมือนกับที่พวกเขาได้มีส่วนร่วมสนับสนุนโปรเจกต์โอเพ่นซอร์สอื่น ๆ การสนับสนุนลักษณะเดียวกันนี้กับ Granite code models ใน InstructLab จะพร้อมใช้งานเร็ว ๆ นี้
นวัตกรรม Open source AI บน Linux ที่เชื่อถือได้
RHEL AI สร้างแนวทางแบบโอเพ่นให้นวัตกรรมด้าน AI ด้วยการผสาน InstructLab project เวอร์ชันที่พร้อมใช้ในองค์กรและ Granite language and code models เข้ากับแพลตฟอร์ม Linux ชั้นนำของโลกที่ใช้งานระดับองค์กร เพื่อทำให้การใช้งานบนโครงสร้างพื้นฐานไฮบริดไม่ยุ่งยาก เป็นการสร้างแพลตฟอร์มโมเดลพื้นฐานสำหรับการนำ open source-licensed GenAI models มาให้องค์กรได้ใช้ โดย RHEL AI ประกอบด้วย:
Open source-licensed Granite language and code models ที่ได้รับการสนับสนุนและรับรองด้านกฎหมายและลิขสิทธิ์โดย Red Hat
A supported, lifecycled distribution of InstructLab ที่มอบโซลูชันที่สเกลได้ในราคาที่คุ้มค่าเพื่อเพิ่มความสามารถให้กับ LLM และช่วยให้เกิดการกระจายความรู้และทักษะต่าง ๆ ให้ผู้ใช้ในวงกว้างเข้าถึงได้
อินสแตนซ์รันไทม์โมเดลที่ช่วยให้ติดตั้งได้เร็วและปรับให้เหมาะกับการนำไปใช้บนสภาพแวดล้อมต่าง ๆ ได้ ผ่านแพ็กเกจเครื่องมือของ Granite models และ InstructLab รวมถึง Pytorch runtime libraries และ accelerators สำหรับ AMD Instinct™ MI300X, Intel และ NVIDIA GPUs และ NeMo frameworks
คำมั่นของ Red Hat ในการให้การสนับสนุนด้านเทคนิคตลอดไลฟ์ไซเคิล ซึ่งเริ่มจากผลิตภัณฑ์ระดับองค์กรที่เชื่อถือได้ การสนับสนุนช่วยเหลือด้านผลิตภัณฑ์ตลอด 24 ชั่วโมงทุกวัน และการสนับสนุนไลฟ์ไซเคิลที่ขยายเพิ่มเติม
เมื่อใดที่องค์กรต่าง ๆ ทำการทดสอบและปรับแต่ง AI models ใหม่ ๆ บน RHEL AI องค์กรเหล่านี้จะมีเส้นทางที่พร้อมใช้ในการสเกลเวิร์กโหลดเหล่านี้ผ่าน Red Hat OpenShift AI ซึ่งจะรวม RHEL AI ไว้ด้วย และยังสามารถใช้ประโยชน์จากเอนจิ้น OpenShift’s Kubernetes เพื่อเทรนด์และให้บริการ AI model ต่าง ๆ ได้ตามต้องการ นอกจากนี้ยังได้ใช้ประโยชน์จากการผสานรวม OpenShift AI เข้ากับความสามารถของ MLOps เพื่อบริหารจัดการไลฟ์ไซเคิลของโมเดลได้อีกด้วย
นอกจากนี้ IBM’s watsonx.ai enterprise studio ที่สร้างอยู่บน Red Hat OpenShift AI ในปัจจุบันจะได้รับประโยชน์จากการผสานรวม RHEL AI ไว้ใน OpenShift AI เมื่อพร้อมใช้งาน ซึ่งจะเพิ่มความสามารถในการพัฒนา AI การบริหารจัดการดาต้า การกำกับดูแลโมเดล และเพิ่มความคุ้มค่าการลงทุนให้กับองค์กร
คลาวด์ที่ใช่คือไฮบริด-AI ก็เช่นกัน
เป็นเวลากว่า 30 ปีที่เทคโนโลยีโอเพ่นซอร์สได้จับคู่นวัตกรรมที่เกิดขึ้นอย่างรวดเร็วเข้ากับการลดค่าใช้จ่ายด้านไอทีและลดอุปสรรคต่อการสร้างสรรค์สิ่งใหม่ได้อย่างมีนัยสำคัญ Red Hat เป็นผู้นำด้านนี้มาในเวลาเกือบเท่า ๆ กัน เริ่มตั้งแต่การนำเสนอ RHEL ซึ่งเป็นแพลตฟอร์ม Linux แบบเปิดสำหรับองค์กร ในต้นทศวรรษ 2000 ไปจนถึงการผลักดันให้คอนเทนเนอร์และ Kubernetes เป็นรากฐานให้กับโอเพ่น ไฮบริดคลาวด์ และคลาวด์-เนทีฟ คอมพิวติ้ง ด้วย Red Hat OpenShift
เร้ดแฮท เดินหน้าต่อเนื่องด้วยกลยุทธ์การขับเคลื่อน AI/ML บนโอเพ่นไฮบริดคลาวด์ ที่ช่วยให้เวิร์กโหลด AI รัน ณ ที่ที่ข้อมูลอยู่ ไม่ว่าจะเป็นในดาต้าเซ็นเตอร์ มัลติพับลิคคลาวด์ หรือที่ edge นอกจากเรื่องของเวิร์กโหลด วิสัยทัศน์ด้าน AI ของ Red Hat ยังช่วยนำการเทรนด์โมเดลและปรับให้อยู่ในแนวทางเดียวกัน มาใช้แก้ไขข้อจำกัดด้านสิทธิ์การเป็นเจ้าของข้อมูล (data sovereignty) การปฏิบัติตามกฎระเบียบ และความสมบูรณ์ของการทำงานอีกด้วย ความสอดคล้องที่แพลตฟอร์มของ Red Hat มีให้กับทุกสภาพแวดล้อมเหล่านี้ โดยไม่จำกัดว่าเวิร์กโหลดจะรันอยู่ที่ใด เป็นสิ่งสำคัญมากต่อการทำให้นวัตกรรม AI เดินหน้าต่อไป
RHEL AI และ InstructLab community ยังคงเดินหน้าวิสัยทัศน์นี้ต่อไป เพื่อกำจัดอุปสรรคมากมายที่เกิดกับการทดสอบและสร้าง AI model ต่าง ๆ และจัดหาเครื่องมือ ข้อมูล และคอนเซ็ปต์ต่าง ๆ ที่จำเป็นต่อการขับเคลื่อนเวิร์กโหลดอัจฉริยะระลอกใหม่
Red Hat Enterprise Linux AI พร้อมให้ใช้งานในรูปแบบพรีวิวสำหรับนักพัฒนาซอฟต์แวร์ นอกจากโครงสร้างพื้นฐาน GPU ที่พร้อมให้ใช้บน IBM Cloud ซึ่งใช้เทรนด์ Granite models และรองรับ InstructLab แล้ว ปัจจุบัน IBM Cloud จะเพิ่มให้สามารถรองรับ RHEL AI และ OpenShift AI ด้วย ซึ่งจะช่วยให้องค์กรต่าง ๆ ใช้ generative AI กับแอปพลิเคชันสำคัญ ๆ ของตนได้ง่ายมากขึ้น