บ.ที่ปรึกษา‘BCG’แนะองค์กรไทย ลงทุนสร้างความปลอดภัย AI
ผลสำรวจล่าสุดของ BCG พบว่ามีเพียง 28% ของบริษัท 2,700 แห่งที่รู้สึกว่าองค์กรของพวกเขามีความพร้อมในการรับมือกับกฎระเบียบใหม่ ๆ ด้านเอไออย่างแท้จริง
‘เบนยามิน ฟิงเกอร์เล’(Benjamin Fingerle) กรรมการผู้จัดการและหุ้นส่วน บอสตัน คอนซัลติ้ง กรุ๊ป (BCG)นำเสนอบทความที่เสนอแนะให้บริษัทและองค์กรต่างๆในไทยลงทุนเพื่อสร้างความปลอดภัยแก่เทคโนโลยีปัญญาประดิษฐ์ (เอไอ) โดยระบุว่าเอไอ ไม่เพียงแต่นำมาซึ่งโอกาสอันไร้ขีดจำกัด แต่ยังถือว่าเป็นความท้าทายที่ยิ่งใหญ่และมีผลพวงต่าง ๆ มากมาย
แท้จริงแล้ว กลุ่มคนผู้คิดค้นเทคโนโลยีที่กำลังก่อให้เกิดการเปลี่ยนแปลงแบบฉับพลันรุนแรงนี้คือคนกลุ่มเดียวกันที่กำลังเรียกร้องด้วยเสียงอันดังมากที่สุดให้มีการกำกับดูแลเทคโนโลยีนี้
ศูนย์เพื่อความปลอดภัยทางปัญญาประดิษฐ์ คือตัวอย่างหนึ่งขององค์กรที่ก้าวไปไกลถึงขนาดมีการเรียกร้องให้ “การบริหารจัดการความเสี่ยงโอกาสในการสูญพันธุ์ของมนุษย์จาก AI เป็นสิ่งที่มีลำดับความสำคัญต้น ๆ ในระดับโลก เทียบเท่าความเสี่ยงที่มีผลกระทบในวงกว้างอื่น ๆ เช่น การเกิดการระบาดใหญ่ของโรค หรือสงครามนิวเคลียร์”
แถลงการณ์ฉบับนี้ได้มีการร่วมลงนามโดยผู้เชี่ยวชาญและผู้บริหารที่มีชื่อเสียงด้าน AI จากบริษัทเทคโนโลยี รวมถึงมหาอำนาจทาง AI เช่น โอเพ่นเอไอ กูเกิล ไมโครซอฟท์ และอื่น ๆ อีกมากมาย เพื่อรับมือกับภัยคุกคามความนี้ รัฐบาลในประเทศต่าง ๆ ทั่วโลกกำลังผลักดันให้มีการผ่านร่างกฎหมายเพื่อกำกับ ดูแล AI โดยมีสหภาพยุโรป (อียู)เป็นหัวหอก
ปัจจุบัน มีมาตรการที่กำลังถูกพิจารณาอยู่กว่า 800 รายการ โดยรัฐบาลของประเทศในอียู รวมถึงประเทศและดินแดนอื่น ๆ รวมกว่า 60 แห่ง
ขณะที่ผลการศึกษาของ BCG พบว่า บริษัทส่วนใหญ่จะใช้เวลาโดยเฉลี่ย 3 ปีในการผลักดันโครงการความรับผิดชอบทางด้านปัญญาประดิษฐ์ (RAI) แต่ละโครงการให้ออกมาได้อย่างสมบูรณ์ ซึ่งนั่นหมายความว่า ภาคเอกชนเหลือเวลาอีกไม่มากแล้วในการเตรียมรับมือกับโลกที่จะมีการออกกฎระเบียบควบคุมทาง AI
แต่ขณะที่ภาครัฐกำลังเดินรุดหน้าต่อ องค์กรต่าง ๆ ในภาคเอกชนไม่สามารถก้าวตามไปได้ท้น ผลการประเมินความพร้อมทางดิจิทัล (Digital Acceleration Index: DAI) โดย BCG ซึ่งมีการจัดทำเป็นปีที่ 6 พบว่า จากจำนวนผู้บริหารที่ตอบแบบสอบถามทั่วโลกกว่า 2,700 ราย มีเพียง 28% ที่รู้สึกว่าองค์กรของพวกเขามีความพร้อมในการรับมือกับกฎระเบียบใหม่ ๆ เหล่านี้แล้วอย่างแท้จริง
สิ่งที่น่าสนใจคือ บริษัทในภูมิภาคเอเชียแปซิฟิกดูเหมือนจะเตรียมตัวรับมือกับกฎระเบียบด้าน AI มากกว่าบริษัทในยุโรป ยกตัวอย่างเช่น ในขณะที่ 48% ของบริษัทในเอเชีย แปซิฟิก ยอมรับว่า จำเป็นต้องออกกฎระเบียบเพื่อทำให้เกิดความรับผิดชอบทาง AI ส่วนบริษัทในยุโรป มีเพียง 35% เท่านั้นที่เห็นพ้องในเรื่องนี้
นอกจากนี้ 35% ของบริษัทในเอเชีย แปซิฟิก ยังมีแนวโน้มที่จะว่าจ้างเจ้าหน้าที่ด้านจริยธรรม AI เมื่อเทียบกับ 25% ของบริษัทในยุโรป และ 23% ของบริษัทในทวีปอเมริกาเหนือ
ในส่วนของประเทศไทยนั้นก็เป็นเหมือนกับประเทศอื่น ๆ ในภูมิภาคนี้ ผู้บริหารขององค์กรไทยไม่จำเป็นต้องถูกโน้มน้าวให้เห็นถึงความจำเป็น ไม่สามารถหลีกเลี่ยงได้ของการมีกฎระเบียบเพื่อควบคุมดูแล AI เพราะ 89% ของพวกเขามีความเชื่อเช่นนี้อยู่แล้ว
โดยมีเหตุผลสำคัญที่พวกเขายกขึ้นมาว่าเป็นความสำคัญในลำดับต้น ๆ เช่น ประเด็นด้านความเป็นส่วนตัวทางข้อมูล การรักษาสภาพชีวิตความเป็นอยู่ที่ดีของมนุษย์ ความเท่าเทียม เป็นธรรม ความปลอดภัยและความเน่าเชื่อถือและความกลัวว่า AI จะเข้ามาแย่งงานมนุษย์ เป็นต้น
แต่มีผู้บริหารไม่ถึง 10% ที่เชื่อว่าองค์กรของพวกเขามีความพร้อมรับมือกับการใช้ AI ในโลกที่มีการควบคุมและดูแล ซึ่ง BCG เชื่อมั่นว่ายังไม่สายเกินไปสำหรับองค์กรไทยที่จะก้าวตามให้ทันองค์กรอื่น ๆ ในภูมิภาคนี้ ทว่าสิ่งนี้จำเป็นต้องอาศัยการลงมือปฏิบัติและการลงทุนอย่างแน่วแน่
ผู้บริหารด้านAI ของ BCG กล่าวเพิ่มเติมว่า ‘ในมุมมองของเรานั้น การลงทุนในโครงการความรับผิดชอบทางปัญญาประดิษฐ์ (RAI)ไม่ได้เป็นแค่เพียงการบริหารจัดการความเสี่ยง แต่ยังช่วยเปิดโอกาสใหม่ ๆ ในการสร้างความแตกต่าง อันจะนำมาสู่การเพิ่มมูลค่าให้กับผู้ถือหุ้น เพื่อช่วยให้องค์กรต่าง ๆ เริ่มต้นเส้นทางเดินสู่การเตรียมความพร้อมทาง RAI เราได้จัดทำแนวทาง 5 ประการที่ไม่ยุ่งยาก ซับซ้อนดังต่อไปนี้’
1. มอบอำนาจและบทบาทให้กับผู้นำโครงการ RAI
ควรแต่งตั้งบุคคลที่มีความรู้ เช่น เจ้าหน้าที่จริยธรรมด้าน AI ให้สามารถชี้นำแนวความคิดริเริ่มใหม่ ๆ หรือจัดทำนโยบายที่สอดคล้องกับค่านิยมทางสังคมขององค์กร และกฎระเบียบใหม่ ๆ ที่กำลังออกมา และสามารถร่วมมือปฏิบัติงานกับบุคคลอื่น ๆ ในตลอดทั่วทั้งเครือข่ายขององค์กรได้
2. พัฒนาและปลูกฝังกรอบทางจริยธรรม AI
เช่น การวางรากฐานด้านหลักการและนโยบาย เพื่อทำให้แน่ใจได้ว่าองค์กรจะสามารถปฏิบัติตามกฎระเบียบ ข้อบังคับที่เกี่ยวข้องทั้งหมดได้ และลดผลกระทบเชิงลบใด ๆ ที่จะมีต่อผลการดำเนินงาน
3. ส่งเสริมการมีส่วนร่วมของมนุษย์ในวงจรชีวิตการทำงานของ AI
กฎระเบียบด้าน AI ส่วนใหญ่ที่มีอยู่ในปัจจุบันและที่ได้รับการนำเสนอในขณะนี้ ล้วนเกี่ยวข้องกับการเรียกร้องให้มีการกำกับดูแลที่เข้มแข็งและความรับผิดชอบของบุคคล วงจรป้อนกลับฟีดแบ็ก กลไกในการทบทวนและช่องทางสำหรับรับการร้องเรียน สิ่งเหล่านี้ควรเป็นองค์ประกอบสำคัญในทุกโครงการที่เกี่ยวข้องกับความรับผิดชอบทาง AI
4 .ทบทวนโครงการ RAI, บูรณาการเครื่องมือและวิธีการต่าง ๆ
ตลอดวงจรชีวิตของระบบ AI โดยมีเป้าหมายเพื่อตรวจจับและแก้ปัญหาให้ได้ตั้งแต่ในช่วงแรกของการพัฒนาให้ได้มากที่สุดเท่าที่จะเป็นไปได้ และเพื่อความเข้มงวดทั้งในช่วงของการเริ่มนำมาใช้และหลังจากนั้น องค์กรที่สามารถเฝ้าระวังผลกระทบจาก AI ได้ตลอดวงจรชีวิตจะได้รับความไว้วางใจจากรัฐบาลและลูกค้าและผู้เกี่ยวข้องอื่น ๆ
5. มีส่วนร่วมในระบบนิเวศของโครงการ RAI
มีส่วนร่วมอย่างแข็งขันในภาคีเครือข่าย RAI หรือคณะทำงานเพื่อส่งเสริมความร่วมมือและการแบ่งปันแนวทางการปฏิบัติที่ดี โดยมองว่าเป็นการทำคราวด์ซอสซิ่งเพื่อเตรียมตัวรับมือกับกฎระเบียบ AI และจากการแบ่งปันประสบการณ์ระหว่างกัน ระบบนิเวศนี้จะช่วยให้มีข้อมูลเชิงลึกในการบริหารจัดการความเสี่ยงและเพื่อสร้างประโยชน์สูงสุดจาก AI
การลงทุนในโครงการ RAI ล่วงหน้าก่อนการดำเนินการของภาครัฐ นับเป็นสิ่งที่สมเหตุสมผลในทางธุรกิจ การก้าวนำการเปลี่ยนแปลงจะช่วยเพิ่มความชัดเจนและทำให้องค์กรสามารถควบคุมผลลัพธ์เพื่อธุรกิจของพวกเขาได้ดีกว่า โดยการเป็นส่วนหนึ่งของกระบวนการหารือและมีส่วนร่วมกับผู้กำหนดนโยบาย และหากมีการปฏิบัติอย่างถูกต้องแล้ว RAI จะสามารถเป็นเครื่องมือในการสร้างความแตกต่างได้เป็นอย่างมาก อันจะนำมาสู่ความได้เปรียบทางการแข่งขัน องค์กรไทยจึงไม่ควรที่จะพลาดโอกาสนี้เป็นอย่างยิ่ง