ช่องโหว่ ‘เอไอ-แมชีนเลิร์นนิ่ง’ ถูกโจมตีผ่านข้อมูลซ่อนใน ‘คิวอาร์โค้ด’
วิศวกรไทย-ญี่ปุ่น เตือนภัย เมื่อมีผลวิจัยพิสูจน์ได้ว่า เอไอ - แมชีนเลิร์นนิ่ง ถูกโจมตีผ่านข้อมูลซ่อนในคิวอาร์โค้ดได้ เปิด 2 แนวทางป้องกัน ตอกย้ำแม้เทคโนโลยีจะเลิศล้ำเพียงใด ยังจำเป็นต้องมีมนุษย์ตรวจสอบ
โลกแห่งศตวรรษที่ 21 เทคโนโลยีปัญญาประดิษฐ์ หรือ เอไอ และ แมชีนเลิร์นนิ่ง (ML) ได้รับความนิยมเป็นซูเปอร์ฮิตราวกับแก้วสารพัดนึก แต่ยังมีคำถามว่าปลอดภัยไว้วางใจได้ 100% หรือไม่
ทีมวิศวกรนักวิจัยไทย-ญี่ปุ่น โดยคณะวิศวกรรมศาสตร์ มหาวิทยาลัยมหิดล ร่วมกับสถาบันวิทยาศาสตร์ และเทคโนโลยีขั้นสูงแห่งประเทศญี่ปุ่นหรือ JAIST (Japan Advanced Institute of Science and Technology) เปิดผลวิจัย ที่ได้รับการตีพิมพ์ในวารสารนานาชาติเรื่องการโจมตีการเรียนรู้ของเครื่องผ่านรูปแบบตัวอย่างปฏิปักษ์ (Attacking Machine Learning With Adversarial Examples) ชี้ว่า แมชีนเลิร์นิ่ง ยังมีช่องโหว่ภัยความเสี่ยงจากการโดนโจมตี ที่จะสร้างความเสียหายได้ ตอกย้ำว่าแม้เทคโนโลยีจะเลิศล้ำเพียงใด ยังจำเป็นต้องมีมนุษย์ตรวจสอบเพื่อยืนยันผลลัพธ์ที่เชื่อถือได้
“จักรกฤษณ์ ศุทธากรณ์” คณบดีคณะวิศวกรรมศาสตร์ มหาวิทยาลัยมหิดล กล่าวว่า ปัจจุบันเทคโนโลยีเอไอ และแมชีน เลิร์นนิ่ง มีบทบาทในวิถีชีวิตประชาชน การทำงาน และหลายธุรกิจอุตสาหกรรม เช่น การแพทย์ สุขภาพ ธุรกิจการค้า อีคอมเมิร์ซ ตลาดทุนการเงิน ยานยนต์ ขนส่งโลจิสติกส์ โทรคมนาคม การผลิตในอุตสาหกรรม ความมั่นคงปลอดภัยจึงเป็นเรื่องสำคัญ
ผลงานวิจัยชิ้นนี้ ได้รับความสนใจจากนานาชาติและประชาคมโลก เพราะเป็นครั้งแรกที่มีการออกแบบการโจมตี ML Model ในรูปแบบคิวอาร์โค้ด ซึ่งจะเป็นประโยชน์ต่อความมั่นคงปลอดภัยของบริการที่เข้าถึงประชาชนและองค์กรในวงการต่างๆ
“กรินทร์ สุมังคะโยธิน” อาจารย์ภาควิชาวิศวกรรมคอมพิวเตอร์ คณะวิศวกรรมศาสตร์มหาวิทยาลัยมหิดล กล่าวถึงที่มาของงานวิจัยว่า เอไอ เป็นการทำให้คอมพิวเตอร์หรือเครื่องจักรฉลาด ส่วน แมชีนเลิร์นนิ่ง เป็นหนึ่งในกระบวนการเรียนรู้ของเอไอ โดยการนำเข้าข้อมูลสู่อัลกอริทึม เพื่อสร้างโครงข่ายการตัดสินใจ คาดคะเนแนวโน้ม ทำนายผลลัพธ์ คล้ายคลึงกับการตัดสินใจของมนุษย์ เพื่อลดภาระงาน ลดความผิดพลาด
ปัจจุบันแมชีนเลิร์นนิ่ง ยังถูกโจมตีผ่านความคลุมเครือจากผู้ประสงค์ร้าย ทีมนักวิจัย จึงศึกษาวิจัยด้านการโจมตีแมชีนเลิร์นนิ่ง เพื่อศึกษารูปแบบการโจมตี มุ่งเน้นโจมตีที่หลบหลีกการสังเกตจากมนุษย์ อาจสร้างความเสียหายหรือผลเสียได้มหาศาล ไม่ว่าจะเป็นแวดวงการเงิน การรักษาพยาบาล การสื่อสาร คมนาคมขนส่ง ระบบรักษาความปลอดภัยข้อมูลระบบการผลิต จนถึงระบบการป้องกันประเทศ
ทีมวิจัยวิศวะมหิดล -JAIST ศึกษาวิจัยร่วมกันกว่า 3 ปี ศึกษาการโจมตีการเรียนรู้ของแมชีนเลิร์นนิ่ง ผ่านรูปแบบตัวอย่าง มีเป้าหมายโจมตี ML Model ที่หลบเลี่ยงการสังเกตจากมนุษย์ กระทบต่อการตัดสินใจผิดพลาดของเครื่องจักร
การโจมตีนั้นสามารถมุ่งเป้าไปที่ผลลัพธ์ใดๆ ที่ถูกกำหนดไว้ล่วงหน้าได้ กำหนดรูปแบบโจมตีผ่านข้อมูลที่ถูกซ่อนในรูปแบบ 'QR-Code’ สำหรับฟังก์ชั่นการทำงานของการโจมตีในรูปแบบ Adversarial Examples เป็นการหลอกเอไอให้สับสน โดยการใส่ข้อมูลปนเปื้อนลงไปในข้อมูลเป้าหมาย เช่น ข้อมูลภาพ,ข้อมูลเสียง,ข้อมูลสัญญาณ หรือ ข้อมูลประเภทอื่นๆ โดยผลการโจมตีนั้นมีทั้งแบบการกำหนดผลลัพธ์จากการโจมตีไว้ล่วงหน้า หรือ ทำให้ผลลัพธ์คลาดเคลื่อนจากสิ่งที่ควรจะเป็นได้
สรุปผลการวิจัยสามารถบีบอัดให้ข้อมูลการโจมตีผ่านข้อมูลที่ถูกซ่อนใน QR-Code ที่สามารถแสกนได้ และยังคงความสามารถโจมตีแบบมุ่งเป้าหมายผลลัพธ์ได้เป็นอย่างดี งานวิจัยชิ้นนี้ยังนำมาใช้พัฒนาระบบป้องกันและตรวจจับการโจมตีจากการวิเคราะห์โดย ML Model ในหลายวัตถุประสงค์ด้วย
ทั้งนี้ เป็นการพิสูจน์ให้เห็นว่าการตัดสินใจของ แมชีนเลิร์นนิ่งควรเป็นเพียงเครื่องมือและนวัตกรรมที่ช่วยลดภาระงานมนุษย์ เพราะท้ายสุดยังต้องถูกตรวจสอบจากมนุษย์ผู้เชี่ยวชาญเพื่อยืนยันผลลัพธ์เป็นขั้นตอนสุดท้าย
สำหรับวิธีป้องกันการโจมตีในอนาคต Adversarial Example Attack มี 2 แนวทางได้แก่ 1.ใช้การโจมตี Adversarial Example เพื่อปกป้องข้อมูลจากการถูกตรวจสอบที่ไม่ได้รับอนุญาต 2. ใช้ข้อมูลที่ได้จากการโจมตี Adversarial Example กลับมาวิเคราะห์ถึงการโจมตี และออกแบบแมชีนเลิร์นนิ่ง โมเดลที่ทนทานต่อการโจมตีมากขึ้น
ข้อแนะนำในการใช้ แมชีน เลิร์นนิ่ง อย่างปลอดภัยให้พึงระวังเสมอว่า ข้อมูลนำเข้าอาจถูกปนเปื้อนการโจมตีมุ่งเป้าในรูปแบบต่างๆ เช่น Adversarial Example หรืออาจพ่วงมากับมัลแวร์
ดังนั้น การใช้ แมชีน เลิร์นนิ่ง เพื่อการทำงานที่มั่นคงและปลอดภัย จำเป็นต้องมีวางระบบตรวจสอบผลลัพธ์สุดท้ายโดยผู้เชี่ยวชาญ เพื่อความถูกต้องที่เชื่อถือได้อีกครั้ง อย่าปล่อยให้แมชีนทำงาน 100% ปัจจุบัน เอไอ และแมชีน เลิร์นนิ่ง ยังมีข้อจำกัด และเป็นตัวช่วยที่ดีได้ก็ต่อเมื่อทั้งคน และเครื่องจักรมีการคิด และทำงานประสานกันอย่างสมดุลไม่อ้างอิงฝ่ายใดฝ่ายหนึ่งมากจนเกินไป