Deepfake กับยุคแห่งข้อมูลเท็จ เมื่อ AI ปลอมได้ทุกอย่าง ความจริงคืออะไร?

Deepfake กับยุคแห่งข้อมูลเท็จ เมื่อ AI ปลอมได้ทุกอย่าง ความจริงคืออะไร?

ช่วงนี้เรามักจะได้ยินข่าวว่า มีคนถูกล่อลวงจากมิจฉาชีพที่ใช้เทคโนโลยีเลียนแบบเสียงคนที่รู้จัก เพื่อหลอกให้โอนเงิน โดยใช้เทคโนโลยีเลียนแบบเสียงที่เรียกว่า Audio Deepfake ซึ่ง Deepfake

ช่วงนี้เรามักจะได้ยินข่าวว่า มีคนถูกล่อลวงจากมิจฉาชีพที่ใช้เทคโนโลยีเลียนแบบเสียงคนที่รู้จัก เพื่อหลอกให้โอนเงิน โดยใช้เทคโนโลยีเลียนแบบเสียงที่เรียกว่า Audio Deepfake ซึ่ง Deepfake รวมไปถึงการนำภาพหรือวิดีโอของบุคคลหนึ่งมาสลับใบหน้ากับอีกคนหนึ่งด้วยเทคโนโลยี Deep Learning ของ AI ทำให้ได้ภาพหรือวิดีโอปลอมที่ดูเหมือนจริงมาก ซึ่งก้าวหน้าไปมากจากการตัดต่อด้วยซอฟต์แวร์ทั่วไป จนคนธรรมดาแทบแยกไม่ออก

เพราะแม้แต่ภาพหรือข่าวเท็จที่ถูกแชร์ข่าวออกไปคนยังเข้าใจผิด แล้วยิ่งมีเสียงหรือวิดีโอที่เหมือนจริงก็ทำให้ผู้คนแยกจริงเท็จยากขึ้นไปอีกชั้น

ในช่วงแรก เรามักเห็นการนำ Deepfake มาใช้ในทางสร้างสรรค์ เช่น ใช้ในงานภาพยนตร์เพื่อเปลี่ยนใบหน้าให้ตัวละครหรือดาราดูอ่อนกว่าวัย ใช้ในสื่อการศึกษาเพื่อทำให้บุคคลในประวัติศาสตร์เสมือนมีชีวิตขึ้นมาจริงๆ หรือใช้ทางการแพทย์เพื่อสร้างผู้ป่วยสมมติในการบำบัดทางจิต

แต่ปัจจุบัน มีผู้แสวงหาประโยชน์จาก Deepfake ในทางที่ผิดมากขึ้น เช่น ใช้ในการสร้างข่าวลวง คลิปวิดีโอปลอมของบุคคลสำคัญทางการเมือง เพื่อปั่นกระแสหรือโจมตีฝ่ายตรงข้าม โดยเฉพาะช่วงใกล้การเลือกตั้งใช้เลียนแบบเสียงเพื่อหลอกลวงสั่งโอนเงิน โดยอ้างเป็นเสียงของเจ้าของบริษัทหรือบุคคลในครอบครัวนำใบหน้าของคนดังไปใส่ในคลิปโป๊ที่ไม่เหมาะสม ซึ่งส่วนใหญ่เป็นผู้หญิงที่ตกเป็นเหยื่อใช้ในการข่มขู่ กลั่นแกล้ง หรือทำลายชื่อเสียงของผู้อื่น

เทคโนโลยีนี้มีประโยชน์มาก แต่เมื่อถูกนำไปใช้ในทางที่ผิดนอกเหนือจากการล่อลวง และทำให้บุคคลเสียหายแล้ว หากทำเพื่อการชักจูงทางการเมือง ความสามารถ Deepfake สร้างข้อมูลเท็จที่ดูน่าเชื่อถือ อาจส่งผลให้ถูกล่อลวงโน้มน้าวการเลือกตั้ง ทำให้สังคมแตกแยก ทำลายชื่อเสียงบุคคลสาธารณะ หรือแม้แต่กระตุ้นให้เกิดความตึงเครียดทางภูมิรัฐศาสตร์

World Economic Forum จัดอันดับให้ข้อมูลเท็จเป็นหนึ่งในความเสี่ยงอันดับต้นๆ ในปี 2024 และ Deepfake ถูกจัดให้เป็นหนึ่งในการใช้ AI ที่น่ากังวลที่สุด โดยเฉพาะผลต่อความแตกแยกทางสังคม

ช่วงไม่กี่ปีที่ผ่านมา Generative AI ที่สามารถสร้างเนื้อหาข้อความ ภาพ และเสียงได้เอง มีความก้าวหน้ามากขึ้น และเข้าถึงได้ง่ายขึ้น ทำให้ผู้สร้าง Deepfake ปัจจุบันไม่จำเป็นต้องมีความรู้เทคนิคหรือเงินทุนมหาศาล ก็สามารถสร้างวิดีโอ เสียง หรือภาพเสมือนจริงของบุคคลจริงได้ ทำให้ปัญหาข้อมูลเท็จที่มีอยู่เลวร้ายลง

โดยเฉพาะเมื่อถูกนำไปใช้เพื่อการชักจูงทางการเมืองและสร้างความแตกแยกในสังคม ระหว่างวันที่ 8 ธันวาคม 2023 ถึง 8 มกราคม 2024 มีการพบโฆษณาวิดีโอ Deepfake มากกว่า 100 รายการที่เลียนแบบนายกรัฐมนตรีอังกฤษ Rishi Sunak บน Meta ซึ่งหลายรายการกระตุ้นอารมณ์ความรู้สึก เช่น ใช้ภาษาทำให้ผู้คนโกรธแค้น

ภัยคุกคามเหล่านี้ส่งผลกระทบต่อทั้งตัวบุคคล องค์กร และสังคม ยิ่งเทคโนโลยีก้าวหน้าไปอย่างรวดเร็ว Deepfake ยิ่งสมจริงและตรวจจับได้ยากขึ้น จนนำไปสู่การสูญเสียความไว้วางใจในข้อมูลที่เห็นว่าอะไรจริงหรือปลอม และเชื่อถืออะไรได้หรือไม่ได้

เมื่อข้อมูลดูสมจริงมาก เราอาจมีแนวทางการป้องกันภัยคุกคามจาก Deepfake ในเบื้องต้นที่ทำได้ดังนี้

ทุกคนต้องใช้สติและวิจารณญาณในการบริโภคข้อมูล คิด วิเคราะห์ ตรวจสอบข้อมูลก่อนเชื่อ โดยเฉพาะข้อมูลที่กระจายผ่านสื่อโซเชียลมีเดียหากข้อมูลหรือเรื่องราวดูดีหรือร้ายเกินจริง ให้ระแวงว่าข้อมูลนั้นอาจถูกปรุงแต่งมา ต้องเช็กแหล่งที่มาว่าน่าเชื่อถือหรือไม่ใช้โปรแกรม AI ในการตรวจจับ Deepfake

เช่น Deepware Scanner หรือ Video Authenticatorใช้เทคโนโลยีในการตรวจจับแบบ Multimodal ผสมผสานแหล่งข้อมูลและอินพุตหลายแบบ โดยตรวจจับ Deepfake แบบองค์รวม ด้วยการวิเคราะห์ทั้งเสียงและภาพไปพร้อมกัน เพื่อให้ช่วยระบุความไม่สอดคล้องระหว่างทั้งสองส่วน ซึ่งอาจมองข้ามไปหากแยกวิเคราะห์แต่ละส่วน

แต่อย่างไรตาม การตรวจจับ Deepfake เป็นเรื่องค่อนข้างยาก และมีข้อจำกัดหลายอย่าง ดังเช่น เทคโนโลยีมีการพัฒนาไปอย่างรวดเร็ว ทำให้วิธีการตรวจจับตามไม่ทัน เพราะมีโมเดล AI ที่ซับซ้อนขึ้น สามารถสร้าง Deepfake ที่ดูน่าเชื่อถือมากขึ้น และยากต่อการตรวจจับด้วยวิธีปัจจุบันมีข้อมูลในการฝึก AI ให้ตรวจจับ Deepfake ยังมีประสิทธิภาพน้อย เนื่องจากข้อมูลเทียมและของจริงมีจำกัด ซึ่งทำให้ประสิทธิภาพของอัลกอริทึมการตรวจจับลดลง

เทคนิคการหลบเลี่ยงการถูกตรวจจับพัฒนาไปพร้อมกับวิธีตรวจจับ ผู้สร้าง Deepfake มักปรับเปลี่ยนเทคนิคให้หลบเลี่ยงวิธีตรวจจับได้ ทำให้เป็นเหมือนการแข่งขันระหว่างการสร้างและตรวจจับ Deepfake อยู่ตลอดเวลาความซับซ้อนในการตรวจจับแบบ Multimodal เพราะ Deepfake อาจไม่ใช่แค่ภาพ แต่ยังมีเสียงด้วยดังนั้นการตรวจจับที่มีประสิทธิภาพต้องพิจารณาครบทุกด้าน ซึ่งเพิ่มความซับซ้อนและทรัพยากรที่ต้องใช้ในระบบตรวจจับ

เราอาจต้องร่วมมือกันในทุกภาคส่วนเพื่อสร้างมาตรการ และกลยุทธ์ที่จะต้องเข้ามาควบคุมเรื่องนี้อย่างจริงจัง อาทิ การพัฒนาและสนับสนุนนโยบายและกฎหมายที่เข้มแข็ง เช่น ห้ามใช้ในการรณรงค์หาเสียง ห้ามนำไปใช้ในทางมิชอบต่างๆโรงเรียนและมหาวิทยาลัยต้องให้การศึกษาแก่เยาวชนในเรื่องการรู้เท่าทันสื่อ พัฒนาทักษะการคิดวิเคราะห์แยกแยะข้อเท็จจริงการกำหนดแนวทางจริยธรรมและมาตรฐานการใช้งาน AI

โดยวางมาตรฐานที่ทำให้เกิดความโปร่งใส ขอความยินยอมในการใช้ข้อมูล และมีความรับผิดชอบในการสร้างและเผยแพร่ Deepfake ขณะที่ องค์กรสื่อต้องมีขั้นตอนการตรวจสอบวิดีโอก่อนนำไปเผยแพร่ เพื่อไม่ให้ตกเป็นเครื่องมือในการกระจายข่าวปลอม

ภัยคุกคามนี้เป็นเรื่องน่ากังวลมาก โลกในปัจจุบันและอนาคตเต็มไปด้วยข้อมูลปลอมที่ถูกปรุงแต่งด้วยเทคโนโลยีที่ทันสมัย กำลังทำให้เกิดความเสี่ยงต่อความแตกแยกในสังคม และปัญหาต่างๆ ที่ตามมาอีกหลายด้าน สิ่งที่ดีที่สุด คือ ต้องมีสติ รู้เท่าทัน วิเคราะห์ตรวจสอบข้อมูลรอบด้าน ไม่ด่วนสรุปหรือด่วนแชร์ข้อมูลที่ยังไม่แน่ใจ

ขณะเดียวกัน ทุกภาคส่วนต้องร่วมมือกันปรับตัวรับกับความท้าทาย และหาวิธีรับมือกับภัยคุกคามจาก Deepfake เพื่อป้องกันผลเสียที่จะเกิดขึ้นกับสังคม