สหภาพยุโรป (EU) ได้นำพระราชบัญญัติ AI (EU Artificial Intelligence Act) มาใช้เป็นทางการแล้ว เมื่อวันที่ 1 สิงหาคม 2567 ที่ผ่านมา ซึ่งถือเป็นก้าวสำคัญในการควบคุมเทคโนโลยีปัญญาประดิษฐ์ (AI) ที่มีผลกระทบต่อธุรกิจทั่วโลก รวมถึงธุรกิจที่อยู่นอกสหภาพยุโรป
พระราชบัญญัติ AI มีที่มาจากสมุดปกขาวเกี่ยวกับ AI ของคณะกรรมาธิการยุโรป (the European Commission’s White Paper on AI) ที่ออกมาในเดือนกุมภาพันธ์ 2563 โดยมีเป้าหมายเพื่อสร้างกรอบการกำกับดูแล เพื่อให้แน่ใจว่าเทคโนโลยี AI สอดคล้องกับมาตรฐานทางจริยธรรมและสิทธิมนุษยชน และป้องกันความเสี่ยงต่างๆ ที่อาจเกิดขึ้นจากการใช้ AI เช่น อคติและการเลือกปฏิบัติภายในอัลกอริทึม, การแคมเปญข้อมูลที่ไม่ถูกต้อง, ปัญหาการละเมิดความเป็นส่วนตัว, และความท้าทายด้านความโปร่งใสเนื่องจากความซับซ้อนของระบบ AI, ตลอดจนข้อกังวลด้านความปลอดภัยในการใช้งานในบางภาคส่วน เช่น การสาธารณสุข และการคมนาคมขนส่ง ความเสี่ยงเหล่านี้นำมาซึ่งแนวคิดการกำกับดูแล AI เพื่อส่งเสริมความโปร่งใส ความรับผิดชอบ และความไว้วางใจของสาธารณะ
ในขั้นตอนการร่างพระราชบัญญัติฉบับนี้คณะกรรมาธิการยุโรปได้มีการปรึกษาหารือกับผู้มีส่วนได้ส่วนเสียที่เกี่ยวข้อง รวมถึงกลุ่มผู้พัฒนา AI จากนั้นมีการบังคับใช้กฎหมายอย่างเป็นทางการในเดือนสิงหาคม 2567 ส่งผลให้ EU เป็นผู้นำด้านกฎระเบียบด้าน AI ในปัจจุบัน
เปิดเนื้อหาพระราชบัญญัติ AI แบ่งระดับความเสี่ยง
กฎหมายฉบับนี้ แบ่งระบบ AI ออกเป็น 4 ระดับความเสี่ยง ได้แก่ ความเสี่ยงที่ยอมรับไม่ได้ ความเสี่ยงสูง ความเสี่ยงจำกัด และความเสี่ยงต่ำ โดยการแบ่งประเภทนี้จะกำหนดระดับการกำกับดูแลตามกฎระเบียบที่แต่ละระบบจะต้องปฏิบัติตาม
- AI ที่มีความเสี่ยงที่ยอมรับไม่ได้ : การใช้งาน AI เพื่อวัตถุประสงค์บางประการถูกห้าม เนื่องจากเป็นภัยคุกคามต่อความปลอดภัย สิทธิขั้นพื้นฐาน หรือค่านิยมทางสังคมอย่างมาก เช่น การใช้ AI สำหรับการให้คะแนนทางสังคม (social scoring) การระบุข้อมูลไบโอเมตริกซ์ (การระบุอัตลักษณ์ เช่น ลายนิ้วมือ การจดจำใบหน้า) แบบเรียลไทม์ในพื้นที่สาธารณะ และระบบที่ใช้ประโยชน์จากช่องโหว่ของกลุ่มเฉพาะ
- AI ที่มีความเสี่ยงสูง : ครอบคลุมถึงระบบ AI ที่ใช้ในภาคส่วนสำคัญ เช่น การดูแลสุขภาพ การขนส่ง การบังคับใช้กฎหมาย และบริการทางการเงิน โดยต้องปฏิบัติตามข้อกำหนดต่างๆ เช่น การประเมินความเสี่ยง จัดทำเอกสารทางเทคนิคโดยละเอียด การจัดทำแนวทางการจัดการข้อมูลที่ปลอดภัย และการกำกับดูแลโดยมนุษย์ ซึ่งผู้เกี่ยวช้องต้องทำให้แน่ใจว่าระบบเหล่านี้โปร่งใส ปลอดภัย
- AI ที่มีความเสี่ยงจำกัด : ได้แก่ แชทบอท และเครื่องมืออัตโนมัติในการบริการลูกค้าระบบเหล่านี้ต้องอยู่ภายใต้ข้อผูกพันด้านความโปร่งใส เช่น ผู้ใช้จะต้องได้รับแจ้งว่าพวกเขากำลังคุยกับ AI
- AI ที่มีความเสี่ยงต่ำ : การใช้ AI ส่วนใหญ่จัดอยู่ในหมวดหมู่นี้ เช่น วิดีโอเกมที่ใช้ AI หรือตัวกรองสแปม แม้ว่าระบบ AI ที่มีความเสี่ยงน้อยที่สุดจะได้รับการยกเว้นจากข้อผูกพันตามกฎหมายฉบับนี้ แต่ก็ยังต้องปฏิบัติตามมาตรฐานความปลอดภัยของผลิตภัณฑ์ของ EUด้วย
สำรวจผลกระทบต่อธุรกิจนอกสหภาพยุโรป
การบังคับใช้พระราชบัญญัติ AI ส่งผลกระทบต่อบริษัทต่างๆ ทั่วโลกที่ต้องการดำเนินการภายในตลาดของ EU ธุรกิจที่พัฒนาหรือใช้ระบบ AI ที่มีการโต้ตอบ (interact) กับพลเมืองของEU จะต้องปฏิบัติตามกฎหมายฉบับนี้ ซึ่งรวมถึงจัดทำแนวทางการประเมินความเสี่ยง และนำแนวทางการจัดการข้อมูลที่เหมาะสมมาใช้ ตลอดจนต้องทำให้แน่ใจว่าระบบ AI โปร่งใสและมีความรับผิดชอบ
ต้นทุนการดำเนินงานที่เพิ่มขึ้น : บริษัทที่ไม่ได้อยู่ใน EU จะเผชิญกับต้นทุนการดำเนินงานที่เพิ่มขึ้น เนื่องจากต้องปรับตัวให้เข้ากับมาตรฐานการกำกับดูแลของ EU ซึ่งรวมถึงต้นทุนที่เกี่ยวข้องกับการตรวจสอบการปฏิบัติตามกฎหมาย การจัดทำเอกสาร หรือแม้แต่อาจต้องทำการออกแบบระบบ AI ใหม่เพื่อให้ตรงตามข้อกำหนดของEU นอกจากนี้ ธุรกิจต่าง ๆ จะต้องลงทุนในการฝึกอบรมพนักงานและอัปเดตนโยบายรวมทั้งกรอบการกำกับดูแลให้สอดคล้องกับกฎหมาย
โทษหนักสำหรับผู้ที่ไม่ปฏิบัติตามกฎหมาย : กฎหมาย AI กำหนดโทษหนักสำหรับผู้ที่ไม่ปฏิบัติตามกฎหมาย โดยอาจปรับเงินได้สูงถึง 30 ล้านยูโรหรือ 6 เปอร์เซ็นต์ของยอดขายประจำปีทั่วโลกแล้วแต่จำนวนใดจะสูงกว่า ซึ่งถือเป็นความเสี่ยงอย่างมากสำหรับธุรกิจระหว่างประเทศ
ข้อได้เปรียบในการแข่งขันสำหรับธุรกิจที่ปฏิบัติตามกฎหมาย : บริษัทที่ปฏิบัติตามกฎหมาย AI อย่างจริงจังอาจได้รับข้อได้เปรียบในการแข่งขันในตลาดEU และการแสดงให้เห็นถึงความมุ่งมั่นต่อจริยธรรมปัญญาประดิษฐ์จะทำให้ธุรกิจ สามารถเพิ่มชื่อเสียง และสร้างความไว้วางใจต่อผู้บริโภค และอาจสร้างโอกาสทางธุรกิจเพิ่มเติมภายในEUได้
ธุรกิจที่อยู่นอกสหภาพยุโรปต้องรับมืออย่างไร?
- การประเมินระบบ AI : บริษัทต่าง ๆ ควรประเมินระบบ AI ของตนอย่างละเอียดถี่ถ้วนรวมถึงการทำความเข้าใจการแบ่งประเภทตามความเสี่ยงของเทคโนโลยี AI และข้อกำหนดที่เกี่ยวข้องกับแต่ละประเภท
- การเสริมสร้างการกำกับดูแลข้อมูล (data governance) : ธุรกิจที่อยู่นอก EU จำเป็นต้องนำกรอบการกำกับดูแลข้อมูลที่เหมาะสมมาใช้เพื่อให้เป็นไปตามมาตรฐานการจัดการข้อมูลและความโปร่งใสเพื่อรับรองคุณภาพข้อมูล ความเป็นส่วนตัว และความปลอดภัย ตลอดจนการจัดทำกระบวนการจัดทำเอกสารที่ชัดเจน
- การเพิ่มความโปร่งใสและความรับผิดชอบ : ธุรกิจต่างๆ ควรเน้นที่การปรับปรุงความโปร่งใสและความรับผิดชอบของระบบ AI ซึ่งรวมถึงการให้ข้อมูลที่ชัดแจ้งแก่ผู้ใช้เกี่ยวกับการทำงานของ AI และการรับรองการกำกับดูแลโดยมนุษย์ในการใช้ AI ที่มีความเสี่ยงสูง
- การจัดลำดับความสำคัญของระบบ AI ที่มีความเสี่ยงสูง : ธุรกิจต่างๆ ควรโฟกัสไปที่ระบบ AI ที่มีความเสี่ยงสูง เพื่อให้แน่ใจว่าระบบเหล่านั้นเป็นไปตามมาตรฐานกำหนดโดยสหภาพยุโรป ซึ่งรวมถึงการนำกลยุทธ์การจัดการความเสี่ยงอย่างครอบคลุมมาใช้
- การติดตามการพัฒนากฎระเบียบ : ในขณะที่สหภาพยุโรปยังคงปรับปรุงภูมิทัศน์ของกฎระเบียบด้าน AI ธุรกิจต่างๆ จะต้องคอยติดตามข้อมูลเกี่ยวกับการพัฒนากฎระเบียบด้าน AI ที่กำลังเกิดขึ้นในภูมิภาคต่างๆ ทั่วโลก ขณะที่รัฐเองควรเน้นการมีส่วนร่วมกับผู้เชี่ยวชาญด้านกฎหมายและสมาคมอุตสาหกรรมเพื่อทำความเข้าใจถึงผลกระทบของกฎระเบียบที่เกิดขึ้นใหม่
จับตาแนวโน้มอนาคต
พระราชบัญญัติ AI มีแนวโน้มจะสร้างบรรทัดฐานสำหรับการกำกับดูแล AI ทั่วโลก โดยมีอิทธิพลต่อภูมิภาคอื่นๆ ในการพัฒนากรอบการกำกับดูแลที่คล้ายคลึงกัน ความเป็นผู้นำของสหภาพยุโรปในการกำกับดูแล AI ส่งสัญญาณถึงการเปลี่ยนแปลงไปสู่การกำกับดูแลเทคโนโลยี AI ที่เข้มงวดยิ่งขึ้น ซึ่งกระตุ้นให้เกิดการสนทนาในระดับโลกเกี่ยวกับแนวทางปฏิบัติด้าน AI ที่มีจริยธรรม
สำหรับธุรกิจนอกสหภาพยุโรป พระราชบัญญัติ AI ถือเป็นทั้งความท้าทายและโอกาส แม้ว่าข้อกำหนดการปฏิบัติตามอาจเข้มงวด แต่การปรับให้สอดคล้องกับมาตรฐานของสหภาพยุโรปสามารถเปิดประตูสู่ตลาดและพันธมิตรใหม่ ๆ ซึ่งตอกย้ำความสำคัญของการพัฒนา AI ที่มีจริยธรรมและโปร่งใส
เมื่อพระราชบัญญัติ AI มีผลบังคับใช้ ธุรกิจระหว่างประเทศต้องเท่าทัน ปรับตัว เตรียมพร้อมรับมือกับกฎระเบียบที่เปลี่ยนแปลงไป
บทความโดย ดร. สลิลธร ทองมีนสุข นักวิชาการ ด้านกฎหมายดิจิทัลและการกำกับดูแลโครงสร้างพื้นฐาน ทีดีอาร์ไอ
Reference:
White & Case LLP. AI Watch: Global Regulatory Tracker – European Union. White & Case LLP. Accessed August 7, 2024.
KPMG. Decoding the EU Artificial Intelligence Act.
European Commission. european approach to artificial intelligence
Ernst & Young (EY) Switzerland. The EU AI Act: What It Means for Your Business. Accessed August 7, 2024.