เจาะ 3 เสาหลัก ‘กำกับดูแล AI’ สำหรับผู้บริหารองค์กร
เปิดเคล็ดลับการใช้ AI สำหรับองค์กร แนวทางการกำกับดูแลการใช้งานที่ควรประกอบด้วย 3 เสาหลักคือ AI Governance Structure, AI Strategy และ AI Operation
KEY
POINTS
- การกำกับดูแลการใช้ AI ประกอบด้วย 3 เสาหลักคือ AI Governance Structure, AI Strategy และ AI Operation
-
นโยบายที่ชัดเจนจะช่วยให้พนักงานเข้าใจบทบาทของตนในการพัฒนาและใช้งาน AI
-
ผู้บริหารจำเป็นต้องสร้างความสมดุลและยั่งยืนทั้งในแง่การป้องกันและการสร้างสรรค์นวัตกรรม
ทั่วโลกต่างกำลังหาวิธีรับมือเพื่อกำกับดูแลการใช้งาน เทคโนโลยีปัญญาประดิษฐ์ (AI) ซึ่งมีความสามารถมากขึ้นเรื่อยๆ และมีบทบาททั้งต่อชีวิตประจำวันของผู้คน องค์กร อุตสาหกรรม กระทั่งถึงระดับที่มีผลต่อการเพิ่มขีดความสามารถในการแข่งขันทางเศรษฐกิจของประเทศ
วางรากฐาน ‘AI Governance’
ศูนย์รวมองค์ความรู้ด้านเทคโนโลยี “OPEN-TEC” โดย “ทีซีซี เทคโนโลยี กรุ๊ป” เสนอแนวทางการกำกับดูแลการใช้ AI บนหลักการด้านจริยธรรมและธรรมาภิบาลสำหรับผู้บริหารองค์กร (AI Governance) ที่จำเป็นต้องสร้างความสมดุลและยั่งยืนทั้งในแง่การป้องกันและการสร้างสรรค์นวัตกรรม
ศักดิ์ เสกขุนทด ที่ปรึกษาอาวุโส และผู้ทรงคุณวุฒิด้าน ดิจิทัลทราน์ฟอร์เมชัน สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (เอ็ตด้า) เปิดมุมมองว่า การวางรากฐาน AI รวมถึง การกำกับดูแลการใช้ AI (AI Governance) ควรประกอบไปด้วย 3 เสาหลักคือ AI Governance Structure, AI Strategy และ AI Operation
เสาที่ 1: AI Governance Structure เตรียมความพร้อมองค์กรด้วยการวางโครงสร้างรากฐานสำหรับการกำกับดูแลการประยุกต์ใช้ AI ภายในองค์กร ประกอบด้วยขั้นตอนต่างๆ
ประกอบด้วย กำหนด/แต่งตั้งคณะทำงาน AI Governance ภายใต้บริบทของแต่ละองค์กร ซึ่งควรประกอบด้วยผู้บริหารจากหลากหลายแผนก เช่น ฝ่ายไอที ฝ่ายธุรกิจ ฝ่ายกฎหมาย และฝ่ายกำกับดูแลการปฏิบัติงาน (Compliance) เป็นต้น เพื่อร่วมกันรับผิดชอบการกำกับดูแล การพัฒนา และการดำเนินงานตามกรอบการกำกับดูแล AI มีหน้าที่ความรับผิดชอบ
ไม่ว่าจะเป็น การกำหนดทิศทางการดำเนินการ โดยคณะทำงานฯ ควรเป็นผู้กำหนดทิศทางสำหรับกลยุทธ์ AI ขององค์กร จัดการความเสี่ยงที่เกี่ยวข้องกับ AI รวมถึงการกำหนดนโยบายและขั้นตอนที่เกี่ยวข้อง, การเฝ้าติดตาม หมั่นติดตามประสิทธิภาพจากการประยุกต์ใช้ AI เทียบกับกรอบการกำกับดูแล AI ขององค์กร
นอกจากนี้ การประเมินผล ประเมินประสิทธิภาพโดยรวม ผลกระทบ และความยั่งยืนของการประยุกต์ใช้ AI ขององค์กร ซึ่งรวมถึงประสิทธิผลของกลไกการกำกับดูแล (AI Mechanism) โอกาสและความเสี่ยงที่อาจเกิดขึ้น, กำหนดบทบาทและความรับผิดชอบ กำหนดบทบาทและความรับผิดชอบอย่างชัดเจนสำหรับผู้มีส่วนได้ส่วนเสียทั้งหมดที่เกี่ยวข้องกับการพัฒนาและการประยุกต์ใช้ AI
รวมไปถึง เพิ่มทักษะและความสามารถ เสริมสร้างความมั่นใจว่าพนักงานในองค์กรแผนกที่ใช้งาน AI จะมีความรู้และทักษะที่จำเป็นในการพัฒนาและจัดการระบบ AI อย่างมีความรับผิดชอบ
กำหนด ‘AI Strategy’
เสาที่ 2: AI Strategy : การกำหนดกลยุทธ์การประยุกต์ใช้ AI เริ่มตั้งแต่การตัดสินใจเลือก use case ที่เหมาะสมจะใช้งาน AI การพิจารณาจัดซื้อจัดจ้างแพลตฟอร์ม AI (เช่น ซื้อหรือเช่า) การบริหารจัดการความเสี่ยง และการวาง Roadmap การใช้งาน AI ประกอบด้วยขั้นตอนต่างๆ
ประกอบด้วย กำหนดกลยุทธ์การประยุกต์ใช้ AI อย่างมีความรับผิดชอบ (Responsible AI Strategy) ให้มีความชัดเจนและสอดคล้องกับเป้าหมายและค่านิยมองค์กร โดยเริ่มจากมองหาโอกาสในการใช้งาน กำหนดเป้าหมายตามลำดับความสำคัญและความพร้อม กำหนดกลยุทธ์การบริหารจัดการข้อมูลเพื่อสนับสนุนการประยุกต์ใช้ AI และจัดทำเป็นแผน Roadmap หรือ Prototype
ระบุและประเมินความเสี่ยง (Identifying & Assessing AI-related risks) ที่อาจเกิดขึ้นที่เกี่ยวข้องกับการพัฒนาและการประยุกต์ใช้ AI ในเชิงรุก เช่น คุณภาพของข้อมูล (Data Quality) การอยู่นอกเหนือความสามารถในการกำกับดูแล (Non-compliance) ช่องโหว่ด้านความปลอดภัย (Cyber Attack) ความเสี่ยงเหล่านี้อาจรวมถึงอคติ (Bias) การเลือกปฏิบัติ (Discrimination) และการละเมิดความเป็นส่วนตัว (Privacy)
พัฒนา/ปรับใช้แผนบริหารความเสี่ยง (AI Risk Management Framework) สร้างแผนหรือปรับใช้แผนมาตรฐานสากลเพื่อลดความเสี่ยง AI แผนนี้อาจเกี่ยวข้องกับการควบคุมการนำไปใช้ เช่น อัลกอริธึมการตรวจจับอคติและมาตรการรักษาความปลอดภัยข้อมูล
พิจารณาระดับการมีส่วนร่วมของมนุษย์ (Level of Human Involvement) เมื่อประยุกต์ใช้ระบบ AI ให้พิจารณาระดับการมีส่วนร่วมของมนุษย์ที่เหมาะสมตลอดทั้ง AI lifecycle ซึ่งอาจเกี่ยวข้องกับ แนวทางแบบ human-in-the-loop ที่มนุษย์มีส่วนร่วมในการตัดสินใจ, human-over-the-loop ที่มนุษย์มีอำนาจในการควบคุมดูแล และแบบ human-out-the-loop ที่มนุษย์อยู่นอกกรอบที่ AI ทำงานอัตโนมัติ (แต่มีการตรวจสอบอย่างรอบคอบ) โดยระดับการมีส่วนร่วมควรขึ้นอยู่กับลักษณะของความเสี่ยงของระบบ AI และผลกระทบจากข้อผิดพลาด
วางแผน ‘AI Operation’
เสาที่ 3: AI Operation ขั้นตอนการดำเนินการหลังการประยุกต์ใช้ AI แล้วว่าจะติดตาม ตรวจตรา และเฝ้าสังเกต (Monitoring) ได้อย่างไร
ประกอบด้วย การจัดการวงจรชีวิต AI (AI Lifecycle) สร้างกระบวนการสำหรับจัดการวงจรชีวิตทั้งหมดของระบบ AI ตั้งแต่การออกแบบและการพัฒนาไปจนถึงการใช้งานและการตรวจสอบ ซึ่งควรรวมถึงการพิจารณาระดับการควบคุมดูแลของมนุษย์ที่จำเป็นในแต่ละขั้นตอน
การจัดการบริการ AI (AI Service) เพื่อให้มั่นใจว่าการประยุกต์ใช้ AI จะได้รับการส่งมอบบริการจากผู้พัฒนาแพลตฟอร์มอย่างราบรื่นตาม Service Level Agreement (SLA) มีความน่าเชื่อถือ และความปลอดภัย ภายใต้การจัดการอย่างมีความรับผิดชอบ ซึ่งรวมถึงการปฏิบัติตามข้อกำหนดการควบคุมดูแลของมนุษย์ที่กำหนดไว้ในแผนการจัดการวงจรชีวิต
ขณะเดียวกัน มีการประกาศนโยบายและให้ข้อมูลการกำกับดูแล AI ขององค์กรอย่างชัดเจน ซึ่งจะช่วยให้พนักงานในองค์กรเข้าใจบทบาทของตนในการพัฒนาและใช้งาน AI อย่างมีความรับผิดชอบ
ด้วยแนวทางเหล่านี้องค์กรจะสามารถผลักดันให้เกิดการสร้างกรอบการกำกับดูแล AI ที่มีประสิทธิภาพ ผู้นำจะรู้สึกมั่นใจได้ว่าองค์กรกำลังพัฒนาและประยุกต์ใช้ AI อย่างมีความรับผิดชอบ ช่วยลดความเสี่ยง สร้างความไว้วางใจกับผู้มีส่วนได้ส่วนเสีย พร้อมปลดล็อกศักยภาพสูงสุดของ AI ได้อย่างยั่งยืน