เมื่อ AI กลายเป็นภัยคุกคาม
ปัจจุบันมีการใช้งาน AI อย่างแพร่หลายทั้งในองค์กรขนาดเล็ก กลาง ใหญ่ เพื่อความสะดวกในการดำเนินงานทำให้องค์กรตกเป็นเป้าหมายในการถูกโจมตีมากขึ้น
แม้ว่าจะมีระบบรักษาความปลอดภัยทางไซเบอร์ที่ดีแล้วก็ตาม แต่ AI ก็ช่วยให้แฮกเกอร์สามารถหลบเลี่ยงการป้องกันแบบเดิมๆ ได้อย่างง่ายดาย
วันนี้แม้ว่าองค์กรต่างๆ จะทุ่มเงินจำนวนมากเพื่อให้ความรู้ ฝึกอบรมกับพนักงานถึงวิธีการสังเกตสัญญาณการโจมตีแบบฟิชชิ่ง เช่น พิมพ์ผิด ใช้ภาษาและไวยากรณ์ไม่ถูกต้อง และอีเมลที่น่าสงสัย แต่การให้สังเกตุเรื่องง่ายๆ เหล่านั้นอาจกลายเป็นสิ่งที่ธรรมดาไปแล้ว
เพราะขณะนี้นี้ ใครๆ ก็สามารถสร้างอีเมลฟิชชิงแบบ Spear ได้โดยใช้ไวยากรณ์และรูปแบบได้อย่างถูกต้องและเหมาะสมแล้ว
ตัวอย่างเช่น ChatGPT เวอร์ชันที่เป็นอันตรายและการคิดค้น AI แบบใหม่ๆ ได้ผุดขึ้นเรื่อยๆ ตามเว็บมืดต่างๆ เพื่อช่วยลดอุปสรรคในการโจมตี
อย่างการใช้ AI แอบอ้างเป็นบุคคลอื่นในการโจมตีถือเป็นเรื่องที่พบบ่อยมากที่สุด โดยการใช้ประโยชน์จากความไว้วางใจของผู้ใช้งานผ่านการให้ความช่วยเหลือจาก ChatGPT ในการเขียนจดหมายและให้คำแนะนำวิธีใช้งาน ซึ่งทำให้แฮกเกอร์ใช้วิธีการที่ซับซ้อนยิ่งขึ้นในการสร้างอีเมลและจดหมายโต้ตอบแบบต่างๆ
อีกทั้งยังมีภัยคุกคามที่น่ากังวลใจมากกว่าเรื่องภาษา นั่นคือการแอบอ้างเป็นบุคคลอื่นโดยใช้เทคโนโลยี AI deepfake สร้างการวิดีโอที่เหมือนจริงของบุคคลที่มีชื่อเสียงได้อย่างน่าทึ่งทั้งสำเนียง ท่าทาง ใบหน้าและตัวอย่างเสียงที่สามารถสร้างคำพูดแปลกใหม่โดยที่เหยื่อไม่ทราบมาก่อนเลย
ปัจจุบัน การปลอมแปลงเสียงของเพื่อนร่วมงานหรือลูกค้ากลายเป็นเรื่องง่ายขึ้น ซึ่งแม้แต่ผู้เชี่ยวชาญบางคนก็อาจไม่สามารถตรวจพบได้
นอกจากนี้ AI ยังสามารถเลียนแบบสไตล์การโพสต์ข้อมูลบนเว็บไซต์ ในข่าวประชาสัมพันธ์ และช่องทางโซเชียลมีเดียเพื่อนำเสนอเวอร์ชันปลอมโดยผู้ใช้งานแยกไม่ออกเลยว่ามาจากองค์กรจริงหรือไม่
แต่เรื่องที่น่าสนใจคือ AI สามารถเขียนมัลแวร์ที่ออกแบบมาโดยเฉพาะเพื่อตรวจสอบและใช้ประโยชน์จากจุดอ่อนขององค์กรต่างๆ แม้อาจจะต้องปรับแต่งบ้างแต่ถือว่าคุ้มค่ามาก
อีกแง่หนึ่ง ความสามารถของ ChatGPT ในการสร้างโค้ดทำให้กลายเป็นชุด DIY kit ที่มีค่ามากสำหรับนักพัฒนาและวิศวกรในการทดสอบสคริปต์ อย่าง FraudGPT และ WormGPT เป็นโมเดลภาษาขนาดใหญ่ที่อยู่ใน Dark Web ซึ่งช่วยให้สามารถขอโค้ดที่เป็นอันตรายได้โดยไม่ต้องเขียนใหม่ตั้งแต่ต้นและสามารถจัดการกับระบบได้ง่ายมากยิ่งขึ้นโดยไม่จำเป็นต้องใช้เทคนิคขั้นสูงอีกต่อไป
นอกจาก AI จะเรียนรู้เกี่ยวกับช่องโหว่ภายในเครือข่ายขององค์กรและวิธีการเขียนโค้ดแล้ว ยังรู้ว่าโซลูชันความปลอดภัยทางไซเบอร์ที่องค์กรกำลังใช้อยู่คืออะไร และวิธีปิดการใช้งานทำได้อย่างไรบ้าง
ขณะนี้สิ่งที่จำเป็นสำหรับแฮกเกอร์คือการเรียกใช้ LLM (Large Language Model) ที่เป็นอันตรายที่โฮสต์ไว้อย่างเช่น FraudGPT และ WormGPT สามารถทำหน้าที่เป็นตลาดกลางที่ขับเคลื่อนด้วย AI สำหรับแฮกเกอร์เพื่อแลกเปลี่ยนเครื่องมือและกลยุทธ์ได้อย่างมีประสิทธิภาพ และยังมีศักยภาพที่จะกลายเป็นแหล่งรวมการโจมตีทางไซเบอร์แบบครบวงจร
มากกว่านั้น ยังให้ความช่วยเหลือในการสร้างข้อความฟิชชิงที่โน้มน้าวใจหรือการเขียนโค้ดที่เป็นอันตรายเพื่อให้การโจมตีประสบความสำเร็จอีกด้วย
สุดท้ายแล้ว เหล่าบรรดาแฮกเกอร์ใช้ AI เพื่อบิดเบือนข้อมูลไม่ว่าจะเป็นในองค์กรต่างๆ กระบวนการเลือกตั้ง ตามแพลตฟอร์มโซเชียลมีเดีย และในเสถียรภาพของโครงสร้างพื้นฐานที่สำคัญด้วยการจัดการใส่ข้อมูลเท็จ สร้างสิ่งแปลกปลอมจำนวนมากอย่างรวดเร็ว ให้กับชุดข้อมูลที่ดีเพื่อฝึก AI ให้เรียนรู้ จากนั้นจะทำให้ระบบคาดการณ์หรือตัดสินใจไม่ถูกต้อง
ทั้งหมดนี้จึงแสดงให้เห็นแล้วว่า เทคโนโลยีก็มีข้อจำกัดอยู่มาก เมื่อ AI พัฒนาและฉลาดขึ้น วิธีการโจมตีของแฮกเกอร์ที่ใช้ก็จะฉลาดขึ้นตามเช่นกัน
ทางรอดเดียวในเวลานี้คือ ผู้ใช้งานและองค์กรต่างๆ จะต้องมีวิธีการรับมือที่เหมาะสมและไม่ประมาทเพื่อปกป้องระบบให้ปลอดภัยจาก AI ที่อันตรายครับ