‘คริสตินา มอนต์โกเมอรี่’ เบื้องหลังผู้สร้าง 'เอไอที่มีความรับผิดชอบ'

‘คริสตินา มอนต์โกเมอรี่’ เบื้องหลังผู้สร้าง 'เอไอที่มีความรับผิดชอบ'

“ไอบีเอ็ม” ยักษ์ใหญ่ด้าน “เอไอ” ที่มีศูนย์วิจัยพัฒนาเชิงอุตสาหกรรมที่ใหญ่ที่สุดในโลก มีบทบาทยาวนานหลายทศวรรษในทุกไทม์ไลน์สำคัญของการพัฒนาเทคโนโลยี เอไอ สำหรับองค์กรธุรกิจ ที่สำคัญไอบีเอ็ม คือ องค์กรแรกๆ ที่จัดตั้ง "AI Ethics Board" หรือบอร์ดจริยธรรมเอไอ

KEY

POINTS

  • ไอบีเอ็ม คือ องค์กรแรกๆ ที่ตั้ง "AI Ethics Board" หรือบอร์ดจริยธรรมเอไอ
  • “คริสตินา มอนต์โกเมอรี่" มองว่า วัตถุประสงค์ของ เอไอ คือ ช่วยเสริม   อัจฉริยภาพมนุษย์
  • เทคโนโลยี เอไอ ต้องโปร่งใส อธิบายที่มาที่ไปได้ ข้อมูลและมุมมองเชิงลึกต่างๆ ที่ เอไอ นำมาประมวลผลต้องเป็นของผู้สร้าง

 

 

“ไอบีเอ็ม” ในฐานะยักษ์ใหญ่ด้าน “เอไอ” ที่มีศูนย์วิจัยพัฒนาเชิงอุตสาหกรรมที่ใหญ่ที่สุดในโลก และเป็นผู้มีบทบาทยาวนานหลายทศวรรษในทุกไทม์ไลน์สำคัญของการพัฒนาเทคโนโลยี เอไอ สำหรับองค์กรธุรกิจ ไอบีเอ็ม คือ องค์กรแรกๆ ที่จัดตั้ง "AI Ethics Board" หรือบอร์ดจริยธรรมเอไอ และให้ความสำคัญการพัฒนา เอไอ ที่โปร่งใสเชื่อถือได้อย่างเป็นระบบ

“กรุงเทพธุรกิจ” มีโอกาสฟังมุมมอง "คริสตินา มอนต์โกเมอรี่" รองประธานและ Chief Privacy & Trust Officer ที่พ่วงตำแหน่ง ประธาน AI Ethics Board ของไอบีเอ็ม เล่าว่า “Generative AI (Gen AI) นำมาซึ่งประโยชน์มากมาย แต่ก็นำมาซึ่งความเสี่ยงด้วยเช่นกัน ทั้ง ความเสี่ยงแบบดั้งเดิม อย่างการเจตนาป้อนข้อมูลลวง การระบุตัวตนซ้ำ อคติการตัดสินใจ และความโปร่งใสของโมเดล ความเสี่ยงที่ถูกเสริมให้ทวีความน่ากลัวขึ้นด้วย Gen AI

อย่างการโจมตีด้วยอินพุทที่ดูปกติสำหรับมนุษย์แต่ทำให้โมเดลแมชชีนเลิร์นนิงจำแนกข้อมูลผิด และ ความเสี่ยงใหม่ๆ อย่างอคติของเอาต์พุท การละเมิดลิขสิทธิ์ การหลอนของ เอไอ หรือข้อมูลส่วนบุคคลและทรัพย์สินทางปัญญาในพร้อมท์ โดย Deepfake เป็นหนึ่งในความท้าทายเร่งด่วนที่สุดอันเป็นผลมาจากความก้าวล้ำของ Gen AI”

ยกตัวอย่าง Deepfake ที่วันนี้ส่งผลกระทบมากมาย อาทิ ในมุมการเลือกตั้ง ความเป็นส่วนตัวของข้อมูล หรือผลกระทบต่อผู้สร้างผลงาน  คริสตินา อธิบายว่า “Deepfake อาจทำให้ผู้สมัครเลือกตั้งที่ตกเป็นเป้าหมายต้องเผชิญกับความเสียหายและนำสู่การโน้มน้าวผลการเลือกตั้ง

ดังนั้น ผู้กำหนดนโยบายควรห้ามการเผยแพร่เนื้อหาที่มีการปลอมแปลงเกี่ยวกับการเลือกตั้ง ขณะเดียวกันก็ต้องกำหนดให้ประชาชนต้องรับผิดชอบหากสร้างผลงานและการปลอมแปลงแบบ Deepfake ที่ไม่ได้รับอนุญาต โดยแพลตฟอร์มต่างๆ ก็ต้องรับผิดชอบหากพวกเขาจงใจเผยแพร่เนื้อหาที่ไม่ได้รับอนุญาตดังกล่าว ผู้กำหนดนโยบายควรสร้างความรับผิดทางอาญาและทางแพ่งที่รุนแรงสำหรับผู้ที่เผยแพร่เนื้อหาภาพและเสียงที่เป็นส่วนตัวโดยไม่ได้รับความยินยอม รวมถึงเนื้อหาที่สร้างโดย เอไอ และผู้ที่ขู่ว่าจะทำเช่นนั้น”

ไอบีเอ็ม หนุนกำกับเอไอ

“วันนี้ถึงเวลาแล้วที่องค์กรต้องโฟกัสที่ความปลอดภัยและการกำกับดูแล เอไอ เพราะ Gen AI ไม่เพียงแต่ย้ำขยายความเสี่ยงเดิมที่โลกกำลังเผชิญจาก เอไอ แต่ยังเปิดประตูสู่ความเสี่ยงรูปแบบใหม่ๆ องค์กรส่วนใหญ่รู้ถึงประโยชน์มากมายที่จะได้รับจาก Gen AI แต่หากไม่สามารถจัดการความเสี่ยงที่จะตามมาได้ การนำ เอไอ มาใช้จริงในโลกธุรกิจ ก็ย่อมเป็นไปได้ยาก”

คริสตินา เล่าว่าไอบีเอ็มวางหลักการเรื่องความเชื่อถือได้และโปร่งใสของ เอไอไว้เมื่อกว่า 4 ปีที่แล้ว ว่าวัตถุประสงค์ของ เอไอ คือ การช่วยเสริมอัจฉริยภาพของมนุษย์ โดยเทคโนโลยี เอไอ ต้องโปร่งใสและสามารถอธิบายที่มาที่ไปได้ ขณะที่ข้อมูลและมุมมองเชิงลึกต่างๆ ที่ เอไอ นำมาประมวลผลต้องเป็นของผู้สร้าง

“คุณสมบัติพื้นฐานทางจริยธรรมของ เอไอ คือ ต้องสามารถอธิบายที่มาที่ไปของการให้คำแนะนำต่างๆ ได้ ระบบ เอไอ ต้องปฏิบัติต่อบุคคลหรือกลุ่มต่างๆ อย่างเท่าเทียมกัน ขณะเดียวกันก็ต้องระบุและเปิดเผยข้อมูลว่าระบบได้รับการออกแบบและพัฒนาขึ้นอย่างไร ต้องปกป้องความเป็นส่วนตัวและสิทธิ์ในข้อมูลของผู้บริโภค และระบบต้องทำงานได้ปกติแม้จะมีปัจจัยแปรปรวนต่างๆ ต้องจัดการกับเงื่อนไขพิเศษอย่างความผิดปกติของอินพุทต่างๆ ได้อย่างมีประสิทธิภาพ”

วันนี้ ASEAN Guideon AI Governance and Ethics ฉบับแรกของภูมิภาค เพิ่งเผยแพร่เมื่อ เดือน ก.พ.ที่ผ่านมา คือสิ่งที่สะท้อนให้เห็นถึงความสำคัญเรื่องนี้เป็นอย่างดี โดยได้กำหนดหลักการความโปร่งใส อธิบายได้ เท่าเทียม ปลอดภัย และเน้นคนเป็นศูนย์กลาง เป็นต้น

ขณะที่เมื่อเดือนที่ผ่านมา สภายุโรปก็ได้โหวตอนุมัติ กฎหมายว่าด้วยปัญญาประดิษฐ์ (EU AI Act) ซึ่งเป็นกฎหมายฉบับแรกของโลกที่พยายามควบคุมการใช้งาน เอไอ ไม่ให้ส่งผลกระทบด้านลบต่อวิถีชีวิตของมนุษย์

แนะองค์กรต้องตระหนักความเสี่ยง

ในแง่ของสิ่งที่องค์กรในไทยและอาเซียนต้องเตรียมตัว หลังจากมีการผ่านกฎหมาย EU AI Act คริสตินา มองว่า “โดยหลักแล้ว EU AI Act คือกฎหมายด้านความปลอดภัยของผลิตภัณฑ์ นั่นหมายถึงว่า ถ้าองค์กรพัฒนาหรือนำผลิตภัณฑ์ เอไอ ไปใช้ใน EU ก็จะเข้าเกณฑ์ของกฎด้านความเสี่ยงต่างๆ วันนี้ทุกองค์กรไม่ว่าจะอยู่ที่ไหน จึงต้องเข้าใจและเตรียมตัวให้พร้อมสำหรับกฎข้อบังคับที่กำลังจะเกิดขึ้น”

อย่างไรก็ดี ภาพความจริงจากผลสำรวจล่าสุดโดย IBV อาจสวนทางกับทิศทางที่คาดหวัง โดยจากการสำรวจ พบว่ามีผู้บริหารระดับสูงน้อยกว่า 60% ที่มองว่าองค์กรตนได้เตรียมพร้อมสำหรับกฎข้อบังคับด้าน เอไอ ต่างๆ แล้ว ขณะที่ 72% กลับเลือกที่จะไม่ใช้ Gen AI จากความกังวลเรื่องจริยธรรมและความปลอดภัยของ เอไอ

IBM Global AI Adoption Index 2023 ยังเปิดเผยว่า ข้อกังวลด้านความเป็นส่วนตัวของข้อมูล (57%) และข้อกังวลด้านความไว้วางใจ/ความโปร่งใส (43%) กำลังเป็นอุปสรรคสำคัญของการนำ Gen AI มาใช้ จากการสำรวจความเห็นของผู้เชี่ยวชาญด้านไอทีในองค์กรขนาดใหญ่ที่กำลังศึกษาหรือเริ่มใช้งาน เอไอ

ในขณะที่ประเด็นความโปร่งใสของ เอไอ กำลังนำสู่ผลกระทบและคำถามมากมาย สมาชิกวุฒิสภาสหรัฐก็ได้เปิดประชาพิจารณ์เกี่ยวกับกฎหมายควบคุม เอไอ  โยคริสตินาได้เข้าร่วมเป็นพยานและแถลงถึงการกำหนดนโยบาย เอไอ ว่าต้องควบคุมและกำกับดูแลความเสี่ยงจาก เอไอ ไม่ใช่ควบคุมอัลกอริธึม เอไอ โดยทั้งผู้สร้างและผู้นำ เอไอ มาใช้ ต้องมีส่วนร่วมรับผิดชอบภายใต้บริบทที่ตนพัฒนาหรือลงระบบ เอไอ ไม่ใช่ได้รับการละเว้นจากความรับผิด นอกจากนี้ ทุกฝ่ายควรสนับสนุนนวัตกรรม เอไอ แบบเปิด ไม่ใช่การมุ่งเน้นการออกไลเซนส์ เอไอ

เจาะ AI Ethics Board

คริสตินา เล่าว่า “AI Ethics Board ของไอบีเอ็ม คือจิ๊กซอว์สำคัญที่ผลักดันเรื่องจริยธรรมของ เอไอ โดยบอร์ดประกอบด้วยตัวแทนจากทุกแผนกทั่วทั้งบริษัท ที่จะร่วมกันวิเคราะห์และตรวจสอบผลิตภัณฑ์อย่าง watsonx และยูสเคสต่างๆ ตั้งแต่กระบวนการออกแบบไปจนถึงการบริหารไลฟ์ไซเคิลของผลิตภัณฑ์ เพื่อให้มั่นใจถึงจริยธรรมและความโปร่งใสของระบบ"

นอกจากนี้ การที่ไอบีเอ็มดำเนินการในกว่า 170 ประเทศทำให้มีพื้นฐานที่จำเป็นทั้งในเรื่องความน่าเชื่อถือและปราศจากอคติของข้อมูลที่ เอไอ ใช้ประมวลผล, การทำ AI governance รวมถึงความรู้ในกฎข้อบังคับด้าน เอไอ ต่างๆ ซึ่งเหล่านี้ทำให้สามารถให้คำแนะนำกับองค์กรต่างๆ ได้ว่าจะสามารถใช้ เอไอ ในแนวทางที่เชื่อถือได้ ลดความเสี่ยง ลดความผิดพลาด รวมถึงปกป้องลูกค้าที่ใช้แพลตฟอร์ม watsonx ของไอบีเอ็ม

เมื่อปีที่ผ่านมา ไอบีเอ็มระบุถึงการคุ้มครองตามสัญญาให้กับลูกค้าหากมีการละเมิดทรัพย์สินทางปัญญาจากการใช้ foundation models ของไอบีเอ็ม และล่าสุดยังได้จัดทำ AI Risk Atlas เพื่อช่วยให้ความรู้ ให้ทุกองค์กรเข้าใจความเสี่ยงรูปแบบต่างๆ จากการใช้ Gen AI, foundation models และโมเดลแมชชีนเลิร์นนิงต่างๆ

คริสตินา ทิ้งท้ายว่า “หากองค์กรไม่มีระบบ เอไอ ที่เชื่อถือได้ ย่อมไม่สามารถนำ เอไอ มาใช้งานจริง หรือสเกลให้เกิดการใช้งานอย่างแพร่หลายและรวดเร็วได้”