Generative AI และอาชญากรรมไซเบอร์ | กษิดิศ สื่อวีระชัย
Generative AI คือเทคโนโลยีที่ประยุกต์กระบวนการใช้อัลกอริทึมในการเรียนรู้และสร้างเนื้อหาใหม่ๆ ที่มีความเสมือนจริง ไม่แตกต่างจากความสามารถมนุษย์ ทั้งในรูปแบบเสียง รูปภาพ โค้ด วีดีโอ รวมถึงภาษาธรรมชาติ
ปัจจุบันเริ่มมีการประยุกต์ใช้อย่างสร้างสรรค์ในบริบทธุรกิจ ไม่ว่าจะเป็น การใช้โมเดล ChatGPT เพื่อพัฒนาแอปพลิเคชันที่สามารถทำการคำนวณที่ซับซ้อนผ่านคำสั่ง หรือธุรกิจสตาร์ทอัพที่ให้ร้านอาหารสามารถสร้างรูปอาหารผ่านคำสั่งพิมพ์เพื่อช่วยเพิ่มยอดขาย
นอกจากนี้ การเข้ามาของ Generative AI สามารถนำไปสู่การพัฒนาสินค้าและบริการรูปแบบใหม่ๆ ในอนาคต ตัวอย่างเช่น คอมพิวเตอร์ที่ผู้ใช้สามารถสั่งการผ่านเสียงหรือคำสั่งพิมพ์
แม้ว่าการเข้ามาของ Generative AI สามารถสร้างประโยชน์ให้กับธุรกิจและสังคมได้อย่างหลากหลาย หนึ่งในสิ่งที่น่ากังวลที่สุดเกี่ยวกับ Generative AI ที่กำลังถูกพูดถึง คือ การใช้เทคโนโลยีดังกล่าวเพื่อการก่ออาชญากรรมทางไซเบอร์ ซึ่งเป็นปัญหาสำคัญที่ทุกภาคส่วนต้องเริ่มคำนึงถึง
การสำรวจโดย Blackberry พบว่าร้อยละ 74 ของผู้เชี่ยวชาญ IT 1,500 คน มีความกังวลว่า ChatGPT สามารถถูกนำไปใช้เพื่อการโจมตีทางไซเบอร์ ในขณะที่ร้อยละ 71 เชื่อว่า ChatGPT อาจถูกใช้โดยรัฐบาลเพื่อก่อการโจมตีทางไซเบอร์กับประเทศที่เป็นศัตรู
ที่ผ่านมา การโจมตีทางไซเบอร์ได้รุนแรงมากขึ้นโดยเฉพาะในช่วงโควิดที่คนใช้เวลาออนไลน์เพิ่มขึ้นสูง ในปี 2563 พบว่าประชากร 392 ล้านคนทั่วโลกได้รับผลกระทบจากการบุกรุกฐานข้อมูลบริษัทจำนวน 1,774 กรณี นอกจากนี้ ยังพบการละเมิดข้อมูลที่สร้างความเสียหายทางเศรษฐกิจเพิ่มขึ้นร้อยละ 20 ในแต่ละปีหรือคิดเป็นร้อยละ 4-6 ของ GDP โลก
กรณีการหลอกลวงผ่านอีเมลฟิชชิ่ง อาจทำให้กลุ่มเป้าหมายไม่ตกเป็นเหยื่อมักเกิดจากการใช้ภาษาที่ไม่สละสลวยหรือผิดหลักไวยากรณ์ เนื่องจากอาชญากรส่วนมากมาจากประเทศที่ไม่ใช่เจ้าของภาษา
อย่างไรก็ตาม การเข้ามาของ Generative AI ได้ช่วยให้ผู้ก่ออาชญากรรมสามารถสร้างอีเมลที่เจาะกลุ่มเป้าหมายในจำนวนมาก รวมถึงเขียนข้อความที่ถูกหลักไวยากรณ์และดูมีความน่าเชื่อถือได้
ปัจจุบันเริ่มมีการใช้ Language Model เช่น ChatGPT เพื่อเขียนอีเมลฟิชชิ่งสำหรับการหลอกเอาข้อมูลสำคัญ โดยมีการประมาณการว่า Generative AI สามารถช่วยเพิ่มจำนวนเหยื่อที่กดอีเมลฟิชชิ่งจาก 100 คลิก เป็น 3,000 – 4,000 คลิก ต่อ 10,000 อีเมล
ChatGPT ยังสามารถถูกนำไปสร้างมัลแวร์ที่แปรเปลี่ยนตัวเองได้หลากหลายรูปแบบ (polymorphic malware) ซึ่งมีศักยภาพสูงในการหลีกเลี่ยงการถูกตรวจจับโดยเครื่องมือการควบคุมความปลอดภัยที่มีอยู่ในปัจจุบัน
จากการทดสอบโดยผู้เชี่ยวชาญเทคโนโลยีพบว่า ChatGPT สามารถสร้างโค้ดเฉพาะเพื่อใช้ผลิตโปรแกรมมัลแวร์อันเดียวที่สามารถกลายพันธุ์เป็นรูปแบบอื่นๆ ได้ นอกจากนี้ ChatGPT สามารถช่วยผู้ก่ออาชญากรรมเขียนโค้ดเพื่อการโจมตีเรียกค่าไถ่หรือแรนซัมแวร์ได้ โดยที่ผู้ก่อเหตุไม่จำเป็นต้องมีประสบการณ์ในการเขียนโค้ดมาก่อนหน้า
การเข้ามาของ Generative AI จึงลดอุปสรรคในการก่ออาชญากรรมทางไซเบอร์อย่างมีนัยสำคัญทั้งในปัจจุบันและในอนาคตอันใกล้นี้
อีกหนึ่งวิธีที่ผู้ก่ออาชญากรรมทางไซเบอร์สามารถใช้ ChatGPT ได้คือการใช้เพื่อเปิดเผยช่องโหว่ที่ซ่อนอยู่ในโค้ดหรือซอฟต์แวร์ ซึ่งโดยปกติแล้ว การที่แฮ็กเกอร์จะหาช่องโหว่ในโค้ดต่างๆ มีความท้าทายมาก เนื่องจากต้องใช้เวลาและพลังงานไปกับโค้ดในแต่ละบรรทัดว่าแต่ละส่วนทำหน้าที่อะไร
แต่ด้วยศักยภาพของ Generative AI แฮ็กเกอร์สามารถป้อนตัวอย่างโค้ดเพื่อให้ ChatGPT วิเคราะห์และให้ข้อมูลสรุปเกี่ยวกับหน้าที่ของแต่ละโมดูลอย่างละเอียด ล่าสุดมีกรณีตัวอย่างบริษัทสอบบัญชีได้สาธิตวิธีการหาจุดอ่อนในสัญญาอัจฉริยะ (Smart Contract) พบว่า ChatGPT สามารถช่วยหาจุดอ่อนในโค้ดได้อย่างแม่นยำ
เพื่อรับมือกับการโจมตีทางไซเบอร์ที่จะเพิ่มขึ้นในอนาคต ทุกฝ่ายต้องเริ่มตระหนักถึงปัญหาและร่วมหาวิธีจัดการอย่างเร่งด่วน ในระดับพื้นฐาน
สิ่งที่ภาคประชาชนและภาคธุรกิจสามารถทำได้คือ เรียนรู้วิธีการใช้เทคโนโลยีอย่างชาญฉลาดอยู่ตลอดเวลาเพื่อให้สามารถตามทันการพัฒนาของ Generative AI
สร้างความตระหนักให้กับพนักงานเกี่ยวกับความปลอดภัยของข้อมูล อัปเดตซอฟต์แวร์และแอปพลิเคชันในอุปกรณ์เป็นประจำ และใช้ซอฟต์แวร์และแอปพลิเคชันจากแหล่งที่น่าเชื่อถือ และไม่ทำการเก็บข้อมูลส่วนบุคคลของผู้ใช้โดยไม่ได้รับอนุญาต เพื่อป้องกันการรั่วไหลของข้อมูลส่วนบุคคลและการโจมตีด้านความปลอดภัย
สำหรับรัฐบาล มีความจำเป็นต้องร่วมกันคิดกับผู้ที่มีส่วนได้ส่วนเสียสำคัญในวงการต่างๆ โดยเฉพาะผู้นำด้านความปลอดภัยทางไซเบอร์ นักพัฒนาและผู้เชี่ยวชาญด้านปัญญาประดิษฐ์ ผู้นำธุรกิจ รวมถึงประชาชน เพื่อร่วมกันกำหนดแผนหรือแนวทางในการรับมือและจัดการการเข้ามาของ Generative AI อย่างเหมาะสมต่อไป.