‘คริสตินา มอนต์โกเมอรี่’ เบื้องหลังผู้สร้าง 'เอไอที่มีความรับผิดชอบ'
“ไอบีเอ็ม” ยักษ์ใหญ่ด้าน “เอไอ” ที่มีศูนย์วิจัยพัฒนาเชิงอุตสาหกรรมที่ใหญ่ที่สุดในโลก มีบทบาทยาวนานหลายทศวรรษในทุกไทม์ไลน์สำคัญของการพัฒนาเทคโนโลยี เอไอ สำหรับองค์กรธุรกิจ ที่สำคัญไอบีเอ็ม คือ องค์กรแรกๆ ที่จัดตั้ง "AI Ethics Board" หรือบอร์ดจริยธรรมเอไอ
KEY
POINTS
- ไอบีเอ็ม คือ องค์กรแรกๆ ที่ตั้ง "AI Ethics Board" หรือบอร์ดจริยธรรมเอไอ
- “คริสตินา มอนต์โกเมอรี่" มองว่า วัตถุประสงค์ของ เอไอ คือ ช่วยเสริม อัจฉริยภาพมนุษย์
- เทคโนโลยี เอไอ ต้องโปร่งใส อธิบายที่มาที่ไปได้ ข้อมูลและมุมมองเชิงลึกต่างๆ ที่ เอไอ นำมาประมวลผลต้องเป็นของผู้สร้าง
“ไอบีเอ็ม” ในฐานะยักษ์ใหญ่ด้าน “เอไอ” ที่มีศูนย์วิจัยพัฒนาเชิงอุตสาหกรรมที่ใหญ่ที่สุดในโลก และเป็นผู้มีบทบาทยาวนานหลายทศวรรษในทุกไทม์ไลน์สำคัญของการพัฒนาเทคโนโลยี เอไอ สำหรับองค์กรธุรกิจ ไอบีเอ็ม คือ องค์กรแรกๆ ที่จัดตั้ง "AI Ethics Board" หรือบอร์ดจริยธรรมเอไอ และให้ความสำคัญการพัฒนา เอไอ ที่โปร่งใสเชื่อถือได้อย่างเป็นระบบ
“กรุงเทพธุรกิจ” มีโอกาสฟังมุมมอง "คริสตินา มอนต์โกเมอรี่" รองประธานและ Chief Privacy & Trust Officer ที่พ่วงตำแหน่ง ประธาน AI Ethics Board ของไอบีเอ็ม เล่าว่า “Generative AI (Gen AI) นำมาซึ่งประโยชน์มากมาย แต่ก็นำมาซึ่งความเสี่ยงด้วยเช่นกัน ทั้ง ความเสี่ยงแบบดั้งเดิม อย่างการเจตนาป้อนข้อมูลลวง การระบุตัวตนซ้ำ อคติการตัดสินใจ และความโปร่งใสของโมเดล ความเสี่ยงที่ถูกเสริมให้ทวีความน่ากลัวขึ้นด้วย Gen AI
อย่างการโจมตีด้วยอินพุทที่ดูปกติสำหรับมนุษย์แต่ทำให้โมเดลแมชชีนเลิร์นนิงจำแนกข้อมูลผิด และ ความเสี่ยงใหม่ๆ อย่างอคติของเอาต์พุท การละเมิดลิขสิทธิ์ การหลอนของ เอไอ หรือข้อมูลส่วนบุคคลและทรัพย์สินทางปัญญาในพร้อมท์ โดย Deepfake เป็นหนึ่งในความท้าทายเร่งด่วนที่สุดอันเป็นผลมาจากความก้าวล้ำของ Gen AI”
ยกตัวอย่าง Deepfake ที่วันนี้ส่งผลกระทบมากมาย อาทิ ในมุมการเลือกตั้ง ความเป็นส่วนตัวของข้อมูล หรือผลกระทบต่อผู้สร้างผลงาน คริสตินา อธิบายว่า “Deepfake อาจทำให้ผู้สมัครเลือกตั้งที่ตกเป็นเป้าหมายต้องเผชิญกับความเสียหายและนำสู่การโน้มน้าวผลการเลือกตั้ง
ดังนั้น ผู้กำหนดนโยบายควรห้ามการเผยแพร่เนื้อหาที่มีการปลอมแปลงเกี่ยวกับการเลือกตั้ง ขณะเดียวกันก็ต้องกำหนดให้ประชาชนต้องรับผิดชอบหากสร้างผลงานและการปลอมแปลงแบบ Deepfake ที่ไม่ได้รับอนุญาต โดยแพลตฟอร์มต่างๆ ก็ต้องรับผิดชอบหากพวกเขาจงใจเผยแพร่เนื้อหาที่ไม่ได้รับอนุญาตดังกล่าว ผู้กำหนดนโยบายควรสร้างความรับผิดทางอาญาและทางแพ่งที่รุนแรงสำหรับผู้ที่เผยแพร่เนื้อหาภาพและเสียงที่เป็นส่วนตัวโดยไม่ได้รับความยินยอม รวมถึงเนื้อหาที่สร้างโดย เอไอ และผู้ที่ขู่ว่าจะทำเช่นนั้น”
ไอบีเอ็ม หนุนกำกับเอไอ
“วันนี้ถึงเวลาแล้วที่องค์กรต้องโฟกัสที่ความปลอดภัยและการกำกับดูแล เอไอ เพราะ Gen AI ไม่เพียงแต่ย้ำขยายความเสี่ยงเดิมที่โลกกำลังเผชิญจาก เอไอ แต่ยังเปิดประตูสู่ความเสี่ยงรูปแบบใหม่ๆ องค์กรส่วนใหญ่รู้ถึงประโยชน์มากมายที่จะได้รับจาก Gen AI แต่หากไม่สามารถจัดการความเสี่ยงที่จะตามมาได้ การนำ เอไอ มาใช้จริงในโลกธุรกิจ ก็ย่อมเป็นไปได้ยาก”
คริสตินา เล่าว่าไอบีเอ็มวางหลักการเรื่องความเชื่อถือได้และโปร่งใสของ เอไอไว้เมื่อกว่า 4 ปีที่แล้ว ว่าวัตถุประสงค์ของ เอไอ คือ การช่วยเสริมอัจฉริยภาพของมนุษย์ โดยเทคโนโลยี เอไอ ต้องโปร่งใสและสามารถอธิบายที่มาที่ไปได้ ขณะที่ข้อมูลและมุมมองเชิงลึกต่างๆ ที่ เอไอ นำมาประมวลผลต้องเป็นของผู้สร้าง
“คุณสมบัติพื้นฐานทางจริยธรรมของ เอไอ คือ ต้องสามารถอธิบายที่มาที่ไปของการให้คำแนะนำต่างๆ ได้ ระบบ เอไอ ต้องปฏิบัติต่อบุคคลหรือกลุ่มต่างๆ อย่างเท่าเทียมกัน ขณะเดียวกันก็ต้องระบุและเปิดเผยข้อมูลว่าระบบได้รับการออกแบบและพัฒนาขึ้นอย่างไร ต้องปกป้องความเป็นส่วนตัวและสิทธิ์ในข้อมูลของผู้บริโภค และระบบต้องทำงานได้ปกติแม้จะมีปัจจัยแปรปรวนต่างๆ ต้องจัดการกับเงื่อนไขพิเศษอย่างความผิดปกติของอินพุทต่างๆ ได้อย่างมีประสิทธิภาพ”
วันนี้ ASEAN Guideon AI Governance and Ethics ฉบับแรกของภูมิภาค เพิ่งเผยแพร่เมื่อ เดือน ก.พ.ที่ผ่านมา คือสิ่งที่สะท้อนให้เห็นถึงความสำคัญเรื่องนี้เป็นอย่างดี โดยได้กำหนดหลักการความโปร่งใส อธิบายได้ เท่าเทียม ปลอดภัย และเน้นคนเป็นศูนย์กลาง เป็นต้น
ขณะที่เมื่อเดือนที่ผ่านมา สภายุโรปก็ได้โหวตอนุมัติ กฎหมายว่าด้วยปัญญาประดิษฐ์ (EU AI Act) ซึ่งเป็นกฎหมายฉบับแรกของโลกที่พยายามควบคุมการใช้งาน เอไอ ไม่ให้ส่งผลกระทบด้านลบต่อวิถีชีวิตของมนุษย์
แนะองค์กรต้องตระหนักความเสี่ยง
ในแง่ของสิ่งที่องค์กรในไทยและอาเซียนต้องเตรียมตัว หลังจากมีการผ่านกฎหมาย EU AI Act คริสตินา มองว่า “โดยหลักแล้ว EU AI Act คือกฎหมายด้านความปลอดภัยของผลิตภัณฑ์ นั่นหมายถึงว่า ถ้าองค์กรพัฒนาหรือนำผลิตภัณฑ์ เอไอ ไปใช้ใน EU ก็จะเข้าเกณฑ์ของกฎด้านความเสี่ยงต่างๆ วันนี้ทุกองค์กรไม่ว่าจะอยู่ที่ไหน จึงต้องเข้าใจและเตรียมตัวให้พร้อมสำหรับกฎข้อบังคับที่กำลังจะเกิดขึ้น”
อย่างไรก็ดี ภาพความจริงจากผลสำรวจล่าสุดโดย IBV อาจสวนทางกับทิศทางที่คาดหวัง โดยจากการสำรวจ พบว่ามีผู้บริหารระดับสูงน้อยกว่า 60% ที่มองว่าองค์กรตนได้เตรียมพร้อมสำหรับกฎข้อบังคับด้าน เอไอ ต่างๆ แล้ว ขณะที่ 72% กลับเลือกที่จะไม่ใช้ Gen AI จากความกังวลเรื่องจริยธรรมและความปลอดภัยของ เอไอ
IBM Global AI Adoption Index 2023 ยังเปิดเผยว่า ข้อกังวลด้านความเป็นส่วนตัวของข้อมูล (57%) และข้อกังวลด้านความไว้วางใจ/ความโปร่งใส (43%) กำลังเป็นอุปสรรคสำคัญของการนำ Gen AI มาใช้ จากการสำรวจความเห็นของผู้เชี่ยวชาญด้านไอทีในองค์กรขนาดใหญ่ที่กำลังศึกษาหรือเริ่มใช้งาน เอไอ
ในขณะที่ประเด็นความโปร่งใสของ เอไอ กำลังนำสู่ผลกระทบและคำถามมากมาย สมาชิกวุฒิสภาสหรัฐก็ได้เปิดประชาพิจารณ์เกี่ยวกับกฎหมายควบคุม เอไอ โยคริสตินาได้เข้าร่วมเป็นพยานและแถลงถึงการกำหนดนโยบาย เอไอ ว่าต้องควบคุมและกำกับดูแลความเสี่ยงจาก เอไอ ไม่ใช่ควบคุมอัลกอริธึม เอไอ โดยทั้งผู้สร้างและผู้นำ เอไอ มาใช้ ต้องมีส่วนร่วมรับผิดชอบภายใต้บริบทที่ตนพัฒนาหรือลงระบบ เอไอ ไม่ใช่ได้รับการละเว้นจากความรับผิด นอกจากนี้ ทุกฝ่ายควรสนับสนุนนวัตกรรม เอไอ แบบเปิด ไม่ใช่การมุ่งเน้นการออกไลเซนส์ เอไอ
เจาะ AI Ethics Board
คริสตินา เล่าว่า “AI Ethics Board ของไอบีเอ็ม คือจิ๊กซอว์สำคัญที่ผลักดันเรื่องจริยธรรมของ เอไอ โดยบอร์ดประกอบด้วยตัวแทนจากทุกแผนกทั่วทั้งบริษัท ที่จะร่วมกันวิเคราะห์และตรวจสอบผลิตภัณฑ์อย่าง watsonx และยูสเคสต่างๆ ตั้งแต่กระบวนการออกแบบไปจนถึงการบริหารไลฟ์ไซเคิลของผลิตภัณฑ์ เพื่อให้มั่นใจถึงจริยธรรมและความโปร่งใสของระบบ"
นอกจากนี้ การที่ไอบีเอ็มดำเนินการในกว่า 170 ประเทศทำให้มีพื้นฐานที่จำเป็นทั้งในเรื่องความน่าเชื่อถือและปราศจากอคติของข้อมูลที่ เอไอ ใช้ประมวลผล, การทำ AI governance รวมถึงความรู้ในกฎข้อบังคับด้าน เอไอ ต่างๆ ซึ่งเหล่านี้ทำให้สามารถให้คำแนะนำกับองค์กรต่างๆ ได้ว่าจะสามารถใช้ เอไอ ในแนวทางที่เชื่อถือได้ ลดความเสี่ยง ลดความผิดพลาด รวมถึงปกป้องลูกค้าที่ใช้แพลตฟอร์ม watsonx ของไอบีเอ็ม
เมื่อปีที่ผ่านมา ไอบีเอ็มระบุถึงการคุ้มครองตามสัญญาให้กับลูกค้าหากมีการละเมิดทรัพย์สินทางปัญญาจากการใช้ foundation models ของไอบีเอ็ม และล่าสุดยังได้จัดทำ AI Risk Atlas เพื่อช่วยให้ความรู้ ให้ทุกองค์กรเข้าใจความเสี่ยงรูปแบบต่างๆ จากการใช้ Gen AI, foundation models และโมเดลแมชชีนเลิร์นนิงต่างๆ
คริสตินา ทิ้งท้ายว่า “หากองค์กรไม่มีระบบ เอไอ ที่เชื่อถือได้ ย่อมไม่สามารถนำ เอไอ มาใช้งานจริง หรือสเกลให้เกิดการใช้งานอย่างแพร่หลายและรวดเร็วได้”