'ทรู' ดันศูนย์ปฏิบัติการ Next Gen AI อุดช่องโหว่ป้องภัยไซเบอร์
ทรู ดิจิทัล ไซเบอร์ซิเคียวริตี้ ดึง AI ยกระดับด้านความปลอดภัยทางไซเบอร์ จัดการภัยคุกคามได้อัตโนมัติแบบเรียลไทม์ หวังเพิ่มประสิทธิภาพการตรวจจับและป้องกันภัยไซเบอร์
ฐิติรัตน์ ศิริพัฒนาเลิศ หัวหน้าสายงานด้านความปลอดภัยระบบข้อมูลสารสนเทศ บริษัท ทรู ดิจิทัล กรุ๊ป จำกัด กล่าวว่า ด้วยวิสัยทัศน์ของ ทรู ดิจิทัล ที่มุ่งสร้างความเท่าเทียมให้คนไทยและภาคธุรกิจไทยสามารถเข้าถึงและใช้งานเทคโนโลยีได้ง่าย เหมาะสมและคุ้มค่า ตอบโจทย์ตรงความต้องการและได้ประโยชน์มากขึ้น จึงได้สร้างสรรค์และพัฒนาบริการใหม่ๆ อย่างต่อเนื่อง และหนึ่งในเรื่องที่องค์กรควรให้ความสำคัญ คือ ความปลอดภัยทางไซเบอร์ ซึ่งองค์กรในยุคดิจิทัลมีความเสี่ยงด้านนี้เพิ่มขึ้น จึงจำเป็นที่จะต้องใช้เทคโนโลยี ปัญญาประดิษฐ์ AI และ ML (Machine Learning)
มาช่วยจัดการกับภัยคุกคามและยกระดับระบบความปลอดภัยทางไซเบอร์ เพื่อให้สามารถรับมือกับกลุ่มแฮกเกอร์ที่มีการใช้ AI มาช่วยในการโจมตีระบบและเจาะข้อมูลสำคัญๆขององค์กร ผ่านการโจมตีหลากหลายรูปแบบ แฮกเกอร์ใช้เวลาเพียง 84 นาทีในการโจมตีระบบจนสำเร็จ ถ้าองค์กรจะปลอดภัยจากการถูกโจมตี จะต้องตรวจจับ วิเคราะห์ปัญหา และแจ้งเตือน เพื่อตัดการโจมตีให้แล้วเสร็จอย่างทันท่วงที
พร้อมกันนี้ ทรู ดิจิทัล ไซเบอร์ ซิเคียวริตี้ ยังได้นำเทคโนโลยี AI มาพัฒนาบริการใหม่ “Next Gen AI Security Operations Center” ซึ่งมีคุณสมบัติที่โดดเด่นและแตกต่าง
• เฝ้าระวังตลอด 24 ชั่วโมง สามารถตรวจจับ วิเคราะห์ความผิดปกติต่างๆ รวมถึง คัดกรองความผิดปกติได้อย่างแม่นยำเพิ่มประสิทธิภาพการเฝ้าระวังภัยคุกคามและช่วยให้องค์กรสามารถตอบสนองต่อการโจมตีได้ตรงจุดและทันท่วงที
• ระบบ Security Automation สามารถจัดการภัยคุกคามได้อัตโนมัติแบบเรียลไทม์ เพิ่มความมั่นใจในการปกป้องระบบและข้อมูลสำคัญขององค์กรจากภัยไซเบอร์ ยกระดับระบบความปลอดภัยให้ก้าวทันแฮกเกอร์ที่พัฒนาเทคนิคการโจมตีใหม่ๆ อยู่ตลอด
• ทีมผู้เชี่ยวชาญเฉพาะด้านและกระบวนการปฏิบัติงานที่ได้รับการรับรองตามมาตรฐานสากล
เทคโนโลยี AI ไม่สามารถทดแทนคนได้ แต่นำมาช่วยให้คนทำงานได้เร็วขึ้น
จักรพันธ์ ตุลยสิทธิ์เสรี วิศวกรฝ่ายขายอาวุโสประจำภูมิภาค บริษัท เคราด์ สไตร์ท อินคอร์พอเรชั่น จำกัด มองว่า AI และ ML (Machine Learning) ไม่ได้มาแทนการทำงานของคนแต่มาช่วยให้คนทำงานได้เร็วขึ้น มีประสิทธิภาพมากขึ้น ซึ่งจากสถิติการขโมยข้อมูล ผู้ใช้งานสิทธิสูงในองค์กร (privileged accounts) จากแฮกเกอร์แล้วนำไปขายต่อ มีจำนวนเพิ่มขึ้นจากปีที่แล้วถึง 20% โดยทางฝั่งแฮกเกอร์เองก็มีการใช้เทคโนโลยีที่ทันสมัย เช่น Generative AI การติดตั้งระบบป้องกันการดักฟัง (Voice Scrambler) ใช้ AI เลียนแบบพฤติกรรมหรือเสียงของคน (Deepfake)
ซึ่งแฮกเกอร์ยังมีการเจาะไปที่องค์กรเทคโนโลยีต่างๆ เพื่อโจมตีไปยัง Supplier ขนาดกลางและเล็กที่มีการเชื่อมระบบกับองค์กรขนาดใหญ่ (Supply Chain Attack) องค์กรจึงจำเป็นต้องใช้ AI เพื่อความรวดเร็วและแม่นยำในหลากหลายมุม ทั้งการป้องกันช่องโหว่
จัดลำดับการจัดการปัญหา ตรวจสอบข้อมูลที่รั่วไหลในเวปมืด การคาดการณ์ในการเข้ามาตรวจสอบและหยุดการโจมตี ซึ่งยังต้องการคนที่เป็น
ผู้เชี่ยวชาญเพื่อเทรน AI ในการแก้ปัญหาต่างๆ รวมถึงต้องการคนในการแยกแยะและตัดสินใจบนปัญหาต่างๆ เพื่อจัดการกับปัญหาโดยไม่กระทบต่อธุรกิจ
นำ AI ตรวจจับและคัดกรองการโจมตีแบบเรียลไทม์ ใช้เวลาน้อยลงและแม่นยำเพิ่มขึ้น
ยูจิน อิง ผู้จัดการประจำภูมิภาค เวคตรา เอไอ เล่าถึง การนำ AI มาเพิ่มประสิทธิภาพด้านความปลอดภัยทางไซเบอร์ โดยเฉพาะการรับมือกับการโจมตีที่มีความซับซ้อนและรวดเร็ว ที่มีแนวโน้มที่เพิ่มขึ้นอย่างต่อเนื่อง เช่น
• จัดทำโมเดลจำลองพฤติกรรมของแฮกเกอร์ในรูปแบบต่างๆ ที่ขับเคลื่อนด้วย AI กว่า 100 แบบเพื่อใช้สำหรับเทรน AI ให้สามารถตรวจจับโจมตีของแฮกเกอร์ได้ตรงจุด
• นำ AI มาใช้ในการตรวจจับการโจมตีได้แบบเรียลไทม์ ช่วยลดปริมาณงานของคน ที่ต้องวิเคราะห์การแจ้งเตือนการโจมตีจำนวนมากในแต่ละวัน ช่วยคัดกรองการโจมตีที่ไม่สำคัญ โดยใช้เวลาในการตรวจจับ ตรวจสอบ และการตอบสนองน้อยลง มีความแม่นยำเพิ่มขึ้น
• ทำให้ผู้ดูแลระบบมีเวลาในการสร้างสรรค์งานใหม่ๆหรือวางกลยุทธ์ในการป้องกันและตรวจจับภัยคุกคามต่างๆ ได้มากขึ้น
แนะกำหนดเป้าหมายให้ชัดเจน เพื่อใช้งาน AI ให้เกิดประสิทธิภาพสูงสุด
กิตติ โฆษะวิสุทธิ์ ผู้จัดการฝ่ายบริหารความมั่งคงปลอดภัยด้านสารสนเทศและความปลอดภัยไซเบอร์ ธนาคารกรุงเทพ กล่าวถึงเทคโนโลยี AI ทํางานคน เดียวไม่ได้ จำเป็นต้องมีคนเทรน เพื่อให้เกิดการเรียนรู้และใช้งาน ซึ่งการนำ AI ไปใช้งานให้เกิดประสิทธิภาพมากที่สุด ต้องกำหนดวัตถุประสงค์และเป้าหมายของการใช้งานให้ชัดเจน เพราะโมเดลในการเทรน AI ในแต่ละแบบก็ไม่เหมือนกัน โดยสามารถแบ่งการใช้ AI เพื่อวิเคราะห์ข้อมูลได้เป็น 3 ประเภท
• As is นำข้อมูลจากหลายๆ ช่องทาง มาวิเคราะห์เพื่อที่จะอธิบายสภาพปัจจุบันว่า มีช่องโหว่อะไรบ้าง การควบคุมดีพอหรือยัง
• Prediction นำข้อมูลมาวิเคราะห์เพื่อคาดการณ์ความเสี่ยงว่า องค์กรมีความเสี่ยงแบบไหน อนาคตอาจจะโดนโจมตีได้จากช่องทางนี้ ผลเสียที่อาจจะเกิดขึ้นคืออะไร
• Suggestion นำข้อมูลมาวิเคราะห์ พร้อมให้คำแนะนำสิ่งที่องค์กรควรจะทำ ทำแล้วจะช่วยให้มีความปลอดภัยเพิ่มมากขึ้น ซึ่งข้อนี้เป็นเรื่องที่ค่อนข้างยาก ต้องการอาศัยข้อมูลจำนวนมากและโมเดลการวิเคราะห์ที่ซับซ้อน
ผู้ใช้งาน AI ควรมีจริยธรรม ไม่นำข้อมูลความลับไปใช้งาน AI แบบสาธารณะ
พลอากาศตรีอมร ชมเชย เลขาธิการคณะสำนักงานคณะกรรมการการรักษาความมั่นคงปลอดภัยไซเบอร์แห่งชาติ (สกมช.) กล่าวว่า สกมช. มีแผนการทำงานเรื่องจริยธรรมของ AI อยู่แล้ว ซึ่งดำเนินการโดยเนคเทค สำหรับในส่วนของผู้ใช้งานนั้น ก็ควรมีจริยธรรมของตนเอง การนำข้อมูล ความลับขององค์กรไปใช้งาน AI ที่เปิดให้ใช้แบบสาธารณะในอินเทอร์เน็ต (Public AI) อาจจะทำให้ข้อมูลขององค์กรรั่วไหลได้ ทั้งยังควรเช็คข้อมูล ความถูกต้อง ก่อนที่จะนำข้อมูลที่ AI แนะนำไปใช้งานต่อ
นอกจากนี้ ในเรื่องของกฏหมายควบคุม AI นั้น ทาง สกมช. กำลังศึกษาผลลัพธ์จากกฏหมายควบคุม AI ของกลุ่มอียูว่าเป็นอย่างไรบ้าง เช่น การนำ AI มาใช้ตัดสินใจในเรื่องที่มีผลต่อชีวิตมนุษย์ ถ้าเกิดข้อผิดพลาดขึ้นมา จะส่งผลเสียเป็นอย่างมาก ซึ่งจำเป็นต้องมีกติกาในการควบคุม แต่ถ้านำ AIใช้ในงานทั่วไป ก็สามารถทำได้ไม่จำเป็นต้องมีกลไกควบคุม แต่ที่น่าเป็นห่วง ก็คือ การที่หน่วยงาน ต่างๆ นำ AI มาใช้ โดยไม่มีการกำกับดูแล ซึ่งจะทำให้เกิดปัญหาในอนาคตต่อไป