tdri logo
tdri logo
25 เมษายน 2025
Read in 5 Minutes

Views

OpenAI จุดกระแสไวรัลด้วยภาพ AI สไตล์จิบลิ ดันข้อถกเถียงลิขสิทธิ์และการใช้ข้อมูลฝึกโมเดลกลับสู่เวทีโลก

เป็นไวรัลเต็มโซเชียลมีเดีย ตลอดช่วงเดือนเมษายนที่ผ่านมา สำหรับภาพ AI  สไตล์ Studio Ghibli ที่ผู้คนทั่วโลกต่างสร้างรูปถ่ายของตัวเองด้วย ChatGPT ให้เป็นภาพการ์ตูนระดับตำนาน

กระแสดังกล่าวเกิดขึ้นภายหลังจากที่ Sam Altman ซีอีโอของ OpenAI ได้สร้างความสั่นสะเทือนบนโลกอินเทอร์เน็ตด้วยการเปลี่ยนภาพโปรไฟล์ของตนในแพลตฟอร์ม X เป็นภาพการ์ตูนที่ชวนให้นึกถึง “สไตล์ Ghibli ” อย่างชัดเจน แม้จะไม่ได้ใช้ตัวละครใดของ Studio Ghibli โดยตรง แต่เส้นสาย สี และอารมณ์ สะท้อนได้ว่า ได้รับแรงบันดาลใจจากผลงานของ Hayao Miyazaki

เหตุการณ์นี้จุดชนวนถกเถียงใหญ่ระดับโลกขึ้นใหม่ทันที ภาพที่มีลักษณะเหมือนงานศิลปะเฉพาะตัวของศิลปินนั้น “ละเมิด” หรือไม่? ใครควรเป็นเจ้าของผลประโยชน์จาก “สไตล์” ที่ AI นำไปเลียนแบบ? และระบบกฎหมายควรรับมืออย่างไรเมื่อ “สไตล์” ถูกนำไปใช้เชิงพาณิชย์โดยไม่มีกรอบการแบ่งปันผลประโยชน์?

ปัจจุบันแม้เทคโนโลยี AI จะสามารถสร้างภาพที่ดูคล้ายผลงานของศิลปินชื่อดังได้อย่างน่าทึ่ง แต่ก็ไม่ถือว่าเป็นการละเมิดลิขสิทธิ์ เนื่องจาก “สไตล์” ของศิลปิน ไม่ใช่งานที่ได้รับความคุ้มครอง เพราะไม่เป็น “original expression” (งานแสดงออกถึงความคิดที่ริเริ่มด้วยตนเอง) ที่สามารถจับต้องได้ เช่น ภาพยนตร์ ภาพวาด หรือวรรณกรรม หากไม่มีการคัดลอกผลงานเหล่านี้โดยตรง ก็จะยังไม่ถือว่าเข้าข่ายละเมิดลิขสิทธิ์

ระบบลิขสิทธิ์จึงไม่คุ้มครองลักษณะเฉพาะตัวบางอย่าง เช่น โทนสี วิธีการวางองค์ประกอบ หรือบรรยากาศ ที่ซ้ำกันได้ในธรรมชาติของงานสร้างสรรค์ เหตุผลเบื้องหลังแนวคิดนี้คือการเปิดโอกาสให้ศิลปินสามารถได้รับแรงบันดาลใจจากกันได้อย่างเสรี โดยไม่กลายเป็นอุปสรรคต่อการพัฒนาทางวัฒนธรรมและศิลปะ

ทว่ายุคของ Generative AI ได้เปลี่ยน “สไตล์” ให้กลายเป็นทรัพยากรที่ถูกสกัดออกมาเป็นแบบฉบับของข้อมูลจำนวนมหาศาล นำไป “ฝึกโมเดล” แล้วสร้างภาพใหม่ที่คล้ายคลึงจนแทบแยกไม่ออก ซึ่งผู้สร้างสรรค์ผลงานจำนวนมากไม่ได้รับการขออนุญาตและไม่ได้รับค่าลิขสิทธิ์

กล่าวได้ว่า ขณะที่กฎหมายยังคงมองสไตล์เป็นแรงบันดาลใจเสรี ตลาดกลับมองว่า สไตล์ คือ “สินทรัพย์” ที่มีมูลค่าทางเศรษฐกิจ ซึ่งสามารถนำไปสร้างรายได้ได้ทันที จุดนี้เองคือช่องว่างเชิงโครงสร้างที่ยังไม่มีระบบกฎหมายใดในโลกตอบได้ชัดเจนว่าจะบริหารจัดการอย่างไรให้เป็นธรรมกับผู้สร้างดั้งเดิม

จากปัญหากฎหมายลิขสิทธิ์สู่ภาวะ “free-riding” แบบใหม่

ความเสี่ยงสำคัญคือการที่ AI สามารถทำให้บริษัทเทคโนโลยีจำนวนมาก “free-ride” หรือการแอบอิงผลประโยชน์บนความคิดสร้างสรรค์ของศิลปินโดยไม่มีต้นทุน ตัวอย่างภาพไวรัลของ Altman ไม่ได้เพียงแค่เรียกกระแส แต่สร้างผู้ใช้งานใหม่ให้ ChatGPT กว่า 1 ล้านคนภายในชั่วโมงเดียว โดยไม่ปรากฏว่ามีการจ่ายค่าลิขสิทธิ์หรือแบ่งปันผลประโยชน์ใดให้กับ Studio Ghibli ทั้งสิ้น

คำถามสำคัญจึงไม่ใช่เพียงว่า “ผิดกฎหมายหรือไม่” แต่คือ “ระบบกฎหมายที่มีอยู่ยังสะท้อนความเป็นธรรมในระบบเศรษฐกิจดิจิทัลหรือไม่” เพราะสไตล์ที่ศิลปินพัฒนาขึ้นผ่านความพยายามและระยะเวลา กลับกลายเป็นช่องว่างที่เปิดโอกาสให้ผู้ที่ไม่ได้มีส่วนสร้างสรรค์สามารถนำไปใช้ประโยชน์ทางธุรกิจได้อย่างมหาศาล และสามารถนำไปต่อยอดเป็นผลิตภัณฑ์เชิงพาณิชย์ได้อย่างไม่จำกัด

จนทำให้เกิดคำถามตามมาว่าหากผู้สร้างต้นฉบับอย่าง Studio Ghibli ไม่สามารถควบคุมหรือรับผลประโยชน์ใดจากการที่ AI นำสไตล์ของตนไปใช้ได้ แล้วใครจะยังมีแรงจูงใจในการพัฒนาสไตล์ใหม่ๆ ที่โดดเด่นขึ้นมาอีก? ภาวะเช่นนี้อาจกระทบแรงจูงใจของผู้สร้างงานในระยะยาว

แนวทางกฎหมายต่างประเทศต่อการใช้ข้อมูลลิขสิทธิ์เพื่อฝึก AI

เมื่อบริษัทเทคโนโลยีทั่วโลกเร่งพัฒนาโมเดล AI ด้วยข้อมูลขนาดใหญ่ ประเทศต่าง ๆ เริ่มออกกฎหมายเพื่อรับมือกับการนำผลงานที่มีลิขสิทธิ์ไปใช้ฝึกโมเดล

สหภาพยุโรป อนุญาตให้ใช้ผลงานลิขสิทธิ์เพื่อการวิเคราะห์ข้อมูลโดยอัตโนมัติ (TDM) ได้ในบริบทไม่แสวงหากำไร แต่สำหรับการใช้เชิงพาณิชย์ เจ้าของลิขสิทธิ์สามารถ “สงวนสิทธิ์” ล่วงหน้าได้ เช่น ผ่าน metadata หรือเทคโนโลยีเฉพาะ เพื่อป้องกันไม่ให้ AI ใช้งานข้อมูลของตน นอกจากนี้ EU AI Act ยังบังคับให้ผู้พัฒนาโมเดล AI ทั่วไป (GPAI) ต้องเปิดเผย “สรุปข้อมูลการฝึก” เพื่อให้เจ้าของสิทธิ์สามารถตรวจสอบได้ แม้จะยังถกเถียงเรื่องระดับความโปร่งใสที่เหมาะสมกับการคุ้มครองความลับเชิงพาณิชย์

ญี่ปุ่น เลือกใช้แนวทางเสรี โดยอนุญาตให้นำผลงานลิขสิทธิ์ไปฝึก AI ได้โดยไม่ต้องขออนุญาต ตราบใดที่ไม่ใช่เพื่อความบันเทิงหรือการนำไปเผยแพร่ซ้ำ

สหรัฐอเมริกา ยังอยู่ระหว่างการตีความในชั้นศาล โดยมีคดีสำคัญอย่าง Andersen v. Stability AI ซึ่งอาจกำหนดหลักเกณฑ์ว่าการเรียนรู้ “สไตล์” ของศิลปินผ่าน AI จะถือเป็น “การใช้อย่างเป็นธรรม” (fair use) หรือไม่ หากมองว่าเป็นการใช้งานในลักษณะดัดแปลง (transformative) โดยไม่กระทบตลาดต้นฉบับโดยตรง

การสร้างสมดุลใหม่ในระบบเศรษฐกิจข้อมูล

หากไทยต้องการส่งเสริมทั้งเศรษฐกิจดิจิทัล และระบบนิเวศสร้างสรรค์ไปพร้อมกัน จำเป็นต้องออกแบบนโยบายที่สามารถให้คุณค่ากับผลงานของผู้สร้างสรรค์ โดยไม่บิดเบือนหลักการลิขสิทธิ์เดิมซึ่งมุ่งคุ้มครองการแสดงออกทางความคิด (expression)

ประเทศไทยควรเริ่มต้นศึกษาว่าการใช้งานผลงานอันมีลิขสิทธิ์ในการเทรน AI สามารถทำได้ภายใต้เงื่อนไขใดที่จะไม่ละเมิดหรือกระทบสิทธิของเจ้าของผลงาน หรือกรณีใดจะเป็นข้อยกเว้นของกฎหมายลิขสิทธิ์

นอกจากนี้ ควรมีการศึกษาความเป็นไปได้ในเชิงปฏิบัติเกี่ยวกับ “กลไกการชดเชย” ที่กำลังเป็นที่ถกเถียงในระดับสากล เช่น การจัดตั้งกองทุนเพื่อการแบ่งปันผลประโยชน์จากการฝึกโมเดล (Model Training Royalties Pool) ที่ให้บริษัทผู้พัฒนา AI ร่วมสมทบเงินตามระดับการใช้งานข้อมูลสร้างสรรค์ หรือข้อเสนอเกี่ยวกับระบบ style attribution ที่วิเคราะห์ได้ว่าโมเดล AI ได้รับอิทธิพลจากศิลปินรายใดบ้าง

ประเด็นความโปร่งใสของข้อมูลฝึกยังเป็นอีกหัวข้อที่ต้องติดตามอย่างใกล้ชิด โดยเฉพาะมาตรฐานใหม่ที่กำลังมีการพัฒนาขึ้นในสหภาพยุโรป เพื่อดูแนวโน้มการออกแบบกลไกที่เหมาะสมเพื่อเปิดให้ผู้มีสิทธิ์สามารถติดตาม ตรวจสอบ หรือมีส่วนร่วมในกระบวนการได้มากขึ้น

ท้ายที่สุด ประเทศไทยควรพิจารณาวางยุทธศาสตร์ข้อมูลระดับชาติที่ตอบโจทย์ระยะยาวของเศรษฐกิจดิจิทัล ไม่ว่าจะเป็นการกำหนดขอบเขตข้อมูลที่อยู่ในสาธารณะ (public domain) ตลอดจนการส่งเสริมให้รัฐเปิดเผยชุดข้อมูลสาธารณะที่สามารถนำไปใช้ฝึกโมเดล AI ได้

หากประเทศไทยต้องการอยู่รอดในยุคเศรษฐกิจที่ขับเคลื่อนด้วยข้อมูลและปัญญาประดิษฐ์ การออกแบบกลไกทางกฎหมายและทางเทคนิคที่ให้คุณค่ากับนวัตกรรมและสิทธิของผู้สร้างสรรค์ถือเป็นเงื่อนไขสำคัญของการเติบโตอย่างยั่งยืน

บทความโดย ดร. สลิลธร ทองมีนสุข นักวิชาการอาวุโส ด้านกฎหมายดิจิทัลและการกำกับดูแลโครงสร้างพื้นฐาน ทีดีอาร์ไอ


References:

Adel, R. (2023). AI Innovation vs Creator Rights: The Legalities of Training Models on Copyrighted Material. Medium. https://medium.com/@adelalh777/ai-innovation-vs-creator-rights-the-legalities-of-training-models-on-copyrighted-material-678d5b97961c

Gahntz, M., & Warso, Z. (2024). How the EU AI Act Can Increase Transparency Around AI Training Data. Tech Policy Press. https://techpolicy.press/how-the-eu-ai-act-can-increase-transparency-around-ai-training-data/

OECD. (2023). Initial Policy Considerations for Generative Artificial Intelligence. Organisation for Economic Co-operation and Development.

นักวิจัย

ดร. สลิลธร ทองมีนสุข
นักวิชาการอาวุโส

แชร์บทความนี้

เรื่องที่คุณอาจสนใจ

ดูทั้งหมด