AI กับการรักษาความปลอดภัยของข้อมูล
ปัญญาประดิษฐ์ หรือ AI กลายเป็นส่วนสำคัญในชีวิตประจำวันและเป็นสิ่งที่ถูกกล่าวถึงกันอย่างมากในขณะนี้ทั้งในแง่บวกและแง่ลบ
เมื่อเร็วๆ นี้มีการสำรวจความคิดเห็นของผู้บริหารระดับสูงในตำแหน่ง CISO, CIO, CTO และ CSO จากทั่วโลกเกี่ยวกับประเด็นเรื่อง AI พบว่า 89% มอง AI ในเชิงบวก เพราะได้เล็งเห็นถึงโอกาสและความสามารถในการจัดการของ AI ที่จะสามารถช่วยพนักงานในองค์กรในการปฏิบัติงาน โดยกว่า 50% ได้มีการพัฒนาแนวทางสำหรับการใช้ AI ของพนักงาน และอีก 32% มีการวางแผนที่จะพัฒนาแนวทางดังกล่าวในปีหน้า
ภายใต้การส่งเสริมการใช้ AI ยังคงมีความกังวลเกี่ยวกับผลกระทบที่อาจเกิดขึ้นจากการใช้งาน พบว่า เกือบ 75% มีความกังวลเกี่ยวกับความปลอดภัยทางไซเบอร์และความเป็นส่วนตัวของข้อมูล
เพราะ Generative AI จะทำให้การตรวจพบการโจมตีแบบฟิชชิ่งน้อยลง และเพิ่มความเสี่ยงหากพนักงานไม่ได้รับการฝึกอบรมที่เหมาะสมเพื่อใช้งานอย่างถูกต้องและปลอดภัย
หากมองในแง่ของความเข้าใจวิธีการทำงาน AI นั้น มีเพียง 14% เท่านั้นที่ระบุว่า มีความเชี่ยวชาญทางด้านคอมพิวเตอร์หรือมีประสบการณ์ด้านการวิจัยและพัฒนา AI และส่วนใหญ่ 43% มีความเข้าใจเพียงระดับปานกลาง
อีกทั้งยังมีความสงสัยบางอย่างเกี่ยวกับความสามารถขององค์กรในการป้องกันการโจมตีที่ขับเคลื่อนด้วย AI เพราะไม่ใช่คนในองค์กรทุกคนที่จะมีความรู้ความสามารถในด้านนี้ จากการสำรวจ 1 ใน 5 ของผู้บริหารเปิดเผยว่า บุคคลากรแทบจะไม่มีความรู้ในการรับมือกับการโจมตีที่ขับเคลื่อนด้วยสิ่งนี้
นอกจากนี้ผลสำรวจแสดงสิ่งที่ผู้บริหารให้ความสำคัญสูงสุดเป็นลำดับแรกนั่นคือ ความต้องการปรับปรุงระบบความปลอดภัยและการตรวจจับภัยคุกคาม ในการช่วยระบุความเสี่ยง การลดความเสี่ยง และการจัดการเพื่อให้แน่ใจว่า AI ที่นำมาใช้อยู่ภายในขอบเขตของความเสี่ยงที่ยอมรับได้
ด้วยเหตุนี้เอง 79% มองว่าโซลูชัน IAM (Identity and Access Management) มีความสำคัญในการควบคุมทางเทคนิคเพื่อกำหนดสิทธิ์การเข้าถึงระบบและข้อมูลที่สำคัญของแต่ละบุคคลให้มีความเหมาะสม อยู่บนพื้นฐานของความปลอดภัยเพื่อหลีกเลี่ยงการเข้าถึงโดยไม่ได้รับอนุญาต ในการป้องกันการโจมตีและควบคุมการใช้ AI ในทางที่ผิด
คำแนะนำ 3 ข้อเพื่อช่วยดูแลความปลอดภัยของข้อมูลเกี่ยวกับ AI
- เพิ่มความปลอดภัยให้กับโครงสร้างพื้นฐานขององค์กร การมี IAM ที่ทันสมัยและการปรับใช้นโยบายที่เหมาะสม เช่น การยืนยันตัวตนแบบหลายปัจจัย (MFA) และการบังคับใช้สิทธิพิเศษให้น้อยที่สุด
- องค์กรต่างๆ ควรติดต่อกับผู้เชี่ยวชาญเฉพาะด้านและหน่วยงานกำกับดูแลในอุตสาหกรรมที่เกี่ยวข้องเพื่อพัฒนา แบ่งปันข้อมูลเชิงลึกและแนวทางปฏิบัติที่ดีที่สุด
- การให้ความรู้และฝึกอบรมพนักงานเกี่ยวกับแนวทางปฏิบัติที่ดีที่สุด เพราะการฝึกให้มีความคุ้นเคยกับ AI และข้อผิดพลาดที่อาจเกิดขึ้นจะช่วยเตรียมความพร้อมให้กับพนักงานก่อนการใช้งานจริง
เราจะเห็นได้ว่า ยิ่ง AI มีความสมจริงมากขึ้นเท่าใด แฮกเกอร์ก็จะปรับตัวและมีนวัตกรรมใหม่ได้เร็วขึ้นเท่านั้น หากองค์กรไม่ให้ความรู้แก่พนักงานอย่างเพียงพอเกี่ยวกับภัยคุกคามด้าน AI ผมเชื่อเลยว่า เรากำลังเปิดให้องค์กรพร้อมรับความเสี่ยงที่เพิ่มมากขึ้น และอาจนำไปสู่การเปิดเผยความลับขององค์กร ความล้มเหลวในการปฏิบัติตามกฎระเบียบ และข้อมูลที่สร้างโดย AI ที่ผิดพลาด
เพราะสุดท้ายแล้วผู้ใช้งานนี่แหละที่มักจะเป็นภัยคุกคามด้านความปลอดภัยที่ใหญ่ที่สุดครับ