เมื่อ AI ดิสรัปต์มนุษย์สายอาร์ต

ปัญญาประดิษฐ์
คอลันน์ : Tech Times
ผู้เขียน : มัชฌิมา จันทร์สว่างภูวนะ

หลังจาก “ดิสรัปต์” มาแล้วหลายวงการ วันนี้ AI กำลังอาละวาดเขย่าวงการ “อาร์ต” อย่างหนัก จนทำให้เหล่าศิลปินขวัญเสียว่าจะตกงานหมดรายได้กันก็คราวนี้

ที่น่าวิตกไปกว่านั้น คือ โปรแกรม “สร้างสรรค์” งานอาร์ตด้วยระบบ AI อาจทำให้การผลิตสื่อลามกอนาจารอย่างผิดกฎหมายเฟื่องฟูขึ้นกว่าเดิม

ชนวนที่ทำการถกเถียงในประเด็นนี้ร้อนแรงขึ้นอีกครั้ง มาจากการเปิดตัว Stable Diffusion โปรแกรมที่ช่วยให้คนที่อาจจะไม่มีความรู้เรื่องงานศิลปะเลยสามารถรังสรรค์ผลงานชิ้นเอกได้ภายในเวลาไม่กี่นาที

โปรแกรมนี้ใช้ AI ผลิตภาพตาม key words ที่ผู้ใช้งานระบุ เช่น หากพิมพ์คำว่า “นักบินอวกาศขี่ม้า” ระบบก็จะทำการประมวลผลจากดาต้าเบสที่อัดแน่นไปด้วยผลงานศิลปะที่ฉกมาจากอินเทอร์เน็ตกว่า 100,000 กิกะไบต์ ก่อน mix & match หรือ “เนรมิต” รูปออกมาให้เข้าข่ายความต้องการของผู้ใช้งานมากที่สุด

ปัญหา คือ ศิลปินที่เป็นเจ้าของรูปที่ถูกใช้เป็นต้นแบบนอกจากจะไม่ได้ค่าลิขสิทธิ์แล้ว ยังมีโอกาสตกงานในอนาคตหากลูกค้าพากันหันไปใช้โปรแกรม AI พวกนี้กันหมด

AJ Palmer คือ หนึ่งในศิลปินที่วิจารณ์ Stable Diffusion และโปรแกรม AI ลักษณะเดียวกันอย่างดุเดือดผ่านทวิตเตอร์

ทวิตหนึ่งของเขาโชว์ภาพเปรียบเทียบระหว่างภาพที่ผลิตโดย AI กับภาพต้นฉบับ ที่แสดงให้เห็นถึงสไตล์การวาดที่คล้ายกันอย่างมาก และที่ขำไม่ออก คือ นอกจากจะก๊อบสไตล์แล้ว เจ้าปัญญาประดิษฐ์ยังถึงขั้นพยายามก๊อบ “ลายเซ็น” ของศิลปินต้นฉบับมาแปะไว้ที่มุมด้านล่างของรูปด้วย

AJ Palmer บอกกับ BBC ว่า ถึงแม้จะเป็นเรื่องปกติในวงการอาร์ต ที่ผลงานบางชิ้นของศิลปินบางคนอาจดูคล้ายกับผลงานของศิลปินคนอื่นเพราะเขาอาจได้รับ “แรงบันดาลใจ” มาจากศิลปินคนนั้น แต่การใช้โปรแกรม AI เพื่อนำผลงานหลาย ๆ ชิ้นมาเขย่ารวมกันจนเกิดเป็นงานใหม่ขึ้นมาเข้าข่ายเป็นการ “ขโมย” มากกว่าการได้รับ “แรงบันดาลใจ”

แต่ขณะเดียวกัน เอมาด มัสตากี ซีอีโอ ของ Stability AI เจ้าของ Stable Diffusion อธิบายว่า โปรแกรม AI ของเขาเป็นเพียงเครื่องมือที่ช่วยรังสรรค์ภาพศิลปะตามที่มนุษย์จินตนาการเท่านั้น

เขายังเถียงด้วยว่า หากโปรแกรม Excel ของ Microsoft ไม่ได้ทำให้นักบัญชีตกงาน เขาก็ไม่คิดว่า Stable Diffusion จะทำให้ศิลปิน หรือคนที่ทำงาน illustration ตกงานเช่นกัน แถมแนะด้วยว่า ศิลปินควรเรียนรู้ที่จะใช้เทคโนโลยี เพื่อเปิดโอกาสในการสร้างรายได้ ซึ่งจะว่าไปก็มีส่วนจริง เพราะโปรแกรมผลิตภาพอื่น ๆ อย่าง AI DALL-E ของ OpenAI ก็มีศิลปินใช้งานกว่า 3,000 คนใน 118 ประเทศ นอกจากนี้ ยังมีการใช้โปรแกรม AI อย่าง Midjourney ผลิตหนังสือการ์ตูนโดยไม่ต้องพึ่งฝีมือมนุษย์มาแล้ว

แม้จะมีศิลปินที่มองว่าโปรแกรมเหล่านี้เอาเปรียบวงการศิลปะ แต่การฟ้องร้องเอาผิดก็ไม่ใช่เรื่องง่าย

ผู้อำนวยการ Centre for Intellectual Property and Informative Law ของมหาวิทยาลัยเคมบริดจ์ ไลโอเนล เบนท์ลีย์ บอกว่า หากจะเอาผิดกันจริง ๆ ศิลปินต้องสามารถชี้ให้เห็นอย่างชัดเจนว่าส่วนใดในภาพที่สร้างจาก AI ที่ได้รับอิทธิพลจากผลงานของตัวเอง หรือต่อให้สามารถพิสูจน์ได้ ค่าใช้จ่ายมหาศาลในการสู้คดีก็อาจทำให้ศิลปินถอดใจไปเสียก่อน

สำหรับเรื่องละเมิดลิขสิทธิ์นี้ เอมาด มัสตากี เจ้าของ Stable Diffusion บอกว่าศิลปินสามารถอัพโหลด Portfolio ของตัวเองและส่งคำร้องเข้าระบบเพื่อขอไม่ให้มีการนำสไตล์ของตนไปใช้ได้

แต่การละเมิดลิขสิทธิ์อาจไม่ใช่ปัญหาใหญ่เพียงปัญหาเดียวที่โปรแกรม AI อาจก่อขึ้น

ก่อนหน้านี้ Google พี่ใหญ่แห่งวงการเทคตัดสินใจยังไม่เปิดตัวโครงการ Imagen ซึ่งเป็นโปรแกรมผลิตภาพจาก AI ต่อสาธารณะด้วยสาเหตุจากความเสี่ยงที่อาจมีการนำไปใช้ใน “ทางที่ผิด” โดย Google เคยเตือนว่า ดาต้าเบสภาพที่คัดลอกมาจากอินเทอร์เน็ตเพื่อ “ฝึก” AI อาจประกอบด้วยภาพลามกอนาจารที่สะท้อนภาพเหมารวมทางสังคมและอาจส่งผลในทางเสื่อมเสียหรือเป็นอันตรายต่อกลุ่มอัตลักษณ์ชายขอบ

ขณะที่ Techcrunch สื่อออนไลน์ชื่อดัง ยังรายงานถึงความกังวลของคนในวงการเทคด้วยว่า Stable Diffusion อาจทำให้การผลิตภาพลามกอนาจารที่ไม่ได้รับความยินยอมจากเจ้าของภาพระบาดหนักกว่าเดิม ด้วยความง่ายของการใช้งานที่ทำให้ใคร ๆ ก็สามารถสั่งผลิตภาพได้ง่ายดังใจนึก

เซบาสเตียน เบิร์นส์ นักวิจัยจาก Queen Mary University of London บอก Techcrunch ว่า Stable Diffusion แตกต่างจากระบบที่ใช้ในการผลิตภาพในอดีต ตรงที่มันสามารถใช้ผลิตภาพปริมาณมากขึ้นในเวลาที่รวดเร็วกว่าเดิม ทำให้มีบริษัทผลิตภาพหลายแห่ง อย่าง Artbreeder หรือ Pixelz.ai ทดลองสมัครใช้ทันทีที่เปิดตัว แต่ในขณะเดียวกันมันก็เปิดโอกาสให้มีคนนำไปใช้ผลิตสื่อลามกหรือภาพตัดต่อเพื่อแบล็กเมล์หรือสร้างความเสื่อมเสียแก่ผู้อื่นด้วยเช่นกัน

ในขณะที่ เอมาด มัสตากี ได้ออกมาปกป้องผลิตภัณฑ์ของบริษัท ด้วยการบอกว่า Stable Diffusion มีฟีเจอร์ที่เรียกว่า Safety Classifier ที่ผู้ใช้สามารถใช้เพื่อกลั่นกรองและบล็อกรูปที่ไม่เหมาะสมอยู่แล้ว

แต่ถึงอย่างนั้นปัญหาที่ชาวเน็ตคาใจ คือ Safety Classifier ที่ว่านี้สามารถกด “ปิด” ได้ทุกเมื่อ รวมทั้ง Stable Diffusion ยังไม่มีการห้ามใช้รูปคนมีชื่อเสียง หรือบุคคลสาธารณะ ทำให้ยังคงมีความกังวลอยู่เช่นเดิมว่าจะมีคนนำโปรแกรมนี้ไปใช้ตัดต่อภาพเพื่อแบล็กเมล์หรือผลิตสื่อลามกกันง่ายขึ้น โดยจากงานวิจัยของ Mission Control พบว่าผู้หญิงคือเหยื่อหลักที่ได้รับความเสียหายจาก deepfakes ลามกทั้งหลาย

แต่ไม่ว่าจะอย่างไร เจ้าของ Stable Diffusion อย่าง เอมาด มัสกาตี ยังคงเน้นย้ำว่า หากมีใครทำอย่างนั้นจริง ก็ถือเป็นการละเมิดเงื่อนไขการใช้งานและเป็นความผิดส่วน “บุคคล” ก่อนจะโบ้ยว่า โปรแกรมอื่นอย่าง Photoshop ก็ใช้ตัดต่อภาพได้เหมือนกัน