มุกใหม่มิจฉาชีพ โทรไม่พูด อัดเสียงเรา เทรน AI ปลอมเสียงหลอกคนอื่น
เตือนภัย สาย “โทรมาแล้วไม่พูด” อาจจะโดน “มิจฉาชีพ” อัดเสียงอยู่ เพื่อนำเอาเสียงไปให้ “AI” เลียนเสียง แล้วย้อนโทรมาหาคนใกล้ตัวเพื่อ “หลอกโอนเงิน”
ทุกคนนี้คนไทยยังคงได้รับสายจาก “แก๊งคอลเซ็นเตอร์” คอย “หลอกให้โอนเงิน” อยู่เสมอ ถึงแม้ว่าภาครัฐและสื่อมวลชนจะพยายามคอยแจ้งข่าวสาร ประกาศเตือนประชาชนไม่ให้ตกเป็นเหยื่อของพวกมิจฉาชีพ แต่เหล่าคนร้ายก็มีกลเม็ดใหม่คอยมาหลอกลวงเหยื่อเสมอ
ล่าสุดเริ่มมีโทรศัพท์ที่โทรมาแล้วไม่พูดอะไร ปล่อยให้เราพูดอยู่คนเดียวไปเรื่อย ๆ แล้วก็วางสายไป ซึ่งฟังดูแล้วอาจเป็นเพราะสัญญาณไม่ดี แต่ความจริงแล้วเราอาจกำลังโดนมิจฉาชีพอัดเสียงอยู่ เพื่อนำเสียงของเราไปให้ GenAI แปลงเสียงเพื่อใช้นำไปโทรหาคนสนิทของเรา และหลอกเอาเงินจากคนเหล่านั้น
- ใช้ AI เลียนเสียงโทรไปหลอกคนใกล้ชิด
การใช้ AI สร้างเสียงหรือการปลอมแปลงเสียงของคน นี้เรียกว่า “Voice Clone” (วอยซ์โคลน) เป็นส่วนหนึ่งของการทำ “Deepfake” ซึ่งถูกนำมาใช้เป็นเครื่องมือของกลุ่มมิจฉาชีพ วิชัย พละสุพราห์มานิยัณ ผู้บริหารระดับสูงและผู้ก่อตั้ง Pindrop บริษัทรักษาความปลอดภัยข้อมูล สัญชาติอเมริกัน ยอมรับว่าในปีนี้มีการใช้ Deepfake ในการฉ้อโกงเพิ่มขึ้นอย่างมาก
ในอดีตการจะใช้ปัญญาประดิษฐ์ทำงานจะต้องใช้ทักษะในการเขียนโค้ด แต่ปัจจุบันมีโปรแกรมสำเร็จมาให้เพียงแค่ป้อนข้อมูลเข้าไป AI ก็สามารถแสดงผลลัพธ์ให้ได้ทันที แถมเสียงจาก AI มีความสมจริงมากขึ้นเรื่อย ๆ ตามเทคโนโลยีที่พัฒนาขึ้นทุกวัน แถมข้อมูลข้อส่วนตัวของลูกค้า เช่น ชื่อ เบอร์โทร ที่อยู่ มีขายอยู่ในตลาดใต้ดินเกลื่อนกลาด
เมื่อมีชื่อของเหยื่ออยู่ในมือ มิจฉาชีพก็นำรายชื่อไปค้นหาตามโซเชียลมีเดียต่าง ๆ ซึ่งผู้คนมักจะโพสต์คลิปตัวเองลงบนโซเชียลมีเดีย ทำให้มีคลังข้อมูลเสียงผู้คนบนโลกอินเทอร์เน็ตจำนวนมาก
ยิ่งเป็นเหล่าคนดัง หรือเซเลบที่มีผู้ติดตามบนโซเชียลมีเดียเยอะ ๆ ยิ่งหาเสียงและวิดีโอของพวกเขาได้ง่าย แต่ถ้าหากคนเหล่านั้นไม่ได้เล่นโซเชียลมีเดีย ก็ต้อง “ออกแรง” ด้วยการโทรไปตามเบอร์มือถือเพื่อให้ได้ยินเสียงและนำมาป้อนข้อมูลให้ AI เอาไปแปลงเสียง
หลังจากนั้นมิจฉาชีพจะโทรไปหาคนใกล้ชิดของเจ้าของเสียง โดยอาจสุ่มโทรหาคนที่เป็นเพื่อนในโซเชียลมีเดีย ซึ่งมักจะสร้างสถานการณ์ว่ากำลังตกอยู่ในสถานการณ์ที่ต้องใช้เงินด่วน เช่น โดนจับเรียกค่าไถ่ ประสบอุบัติเหตุ ติดหนี้ ไม่มีเงินสด ฯลฯ
ฟังดูก็เป็น “มุกเก่า” ที่เหล่ามิจฉาชีพใช้มาตั้งแต่สมัยไม่มี AI แต่ตอนนี้มันสมจริงกว่าเดิมด้วย Voice Clone ซึ่งหากไม่ตั้งสติดี ๆ ก็อาจจะคิดว่าเป็นเรื่องจริงและเผลอโอนเงินให้คนร้ายไปโดยไม่ได้โทรเช็กกับคนที่ถูกแอบอ้างก่อน
- ผู้คนตระหนักถึงภัยคุกคามจาก Deepfake
Pindrop สำรวจความเห็นของคนในสหรัฐเกี่ยวกับความกังวลที่มีต่อเทคโนโลยี Deepfake และการทำไปใช้ผิดวิธี โดยผลการสำรวจพบว่า 90% ของผู้ตอบแบบสอบถามมีความกังวลเกี่ยวกับภัยคุกคามที่เกิดขึ้นจาก Deepfake และ Voice Clone หากแยกออกมาตามระดับความกังวล พบว่าชาวอเมริกันความกังวลของผลกระทบด้านลบที่อาจเกิดจาก Deepfakes อย่างมากถึง 60.4% ส่วนความกังวลที่มีต่อ Voice Clone ระดับมากที่สุดอยู่ที่ประมาณ 57%
ผู้ตอบแบบสอบถามรู้จักและตระหนักรู้เกี่ยวกับ Voice Clone ถึง 63.6% ซึ่งสูงกว่า Deepfake ที่มีการรับรู้ 54.6% เนื่องจาก Voice Clone เป็นคำที่คนทั่วไปสามารถเข้าใจได้ทันทีว่าหมายถึงอะไร ต่างจาก Deepfake ที่จะต้องใช้เวลาทำความเข้าใจ หรือแสดงตัวอย่างเพื่อให้เห็นภาพที่ชัดเจนยิ่งขึ้น ซึ่งสวนทางกับ Google Trend ที่รายงานว่า Deepfake ได้รับความนิยมมากกว่า Voice Clone
พวกเขาเคยพบเห็นการใช้ Deepfake ผ่านโซเชียลมีเดียช่องทางต่าง ๆ ได้แก่ YouTube, TikTok, Instagram และ Facebook โดยมีคิดเป็น 49.0%, 42.8%, 37.9% และ 36.2% ตามลำดับ
นอกจากนี้ แบบสอบถามยังระบุว่าคนที่มีรายได้สูงจะรู้จักเทคโนโลยี Deepfake มากกว่า โดยราว 75% ของคนที่รายได้ต่อปีมากกว่า 125,000 ดอลลาร์รู้จัก Voice Clone แต่รู้จัก Deepfake ประมาณ 67% ขณะที่ผู้ที่มีรายได้ต่ำกว่า 50,000 ดอลลาร์ต่อปี รู้จัก Voice Clone เพียง 56.5% ส่วน Deepfake มีคนรู้จักเพียง 43.6% เท่านั้น
เมื่อถามว่ามีความกังวลเกี่ยวกับการนำเทคโนโลยีดังกล่าวไปใช้ทำเรื่องไม่ดีด้านใดมากที่สุด พบว่า 54.9% กังวลว่าจะถูกนำไปใช้ในด้านการเงินและการเมือง ตามมาด้วยประเด็นด้านสื่อและการดูแลสุขภาพที่ 50.1% แม้จะมีความกังวลกับ Deepfake แต่ผู้ตอบแบบสอบถามยังมีความรู้สึกเชิงบวกกับการนำเทคโนโลยีนี้ไปใช้ในสื่อบันเทิง โดยข้อดีของ Deepfake คือช่วยให้สร้างความบันเทิงและรู้สึกตลก (40%) และรู้สึกชื่นชมในการสร้างสรรค์ผลงาน (39.4%)
ยิ่งเทคโนโลยีพัฒนาไปมากเท่าไหร่ ความกังวลใจเกี่ยวกับการนำ Deepfake มาใช้เพื่อฉ้อโกงประชาชนยิ่งสูงขึ้นมากเท่านั้น เกือบ 66% ของชาวสหรัฐมีความกังวลกับการใช้ Deepfake และ Voice Clone ในที่ทำงานอย่างไม่เหมาะสม ซึ่งอาจส่งผลเสียต่อธุรกิจ ทำลายภาพลักษณ์ของแบรนด์ และอื่น ๆ
Pindrop แนะนำให้บริษัทต่าง ๆ สร้างความไว้วางใจต่อลูกค้าของตนด้วยการพัฒนาแผนกลยุทธ์การรักษาความปลอดภัยแบบองค์รวม เช่น การตรวจสอบความปลอดภัยหลายปัจจัย และใช้เทคโนโลยีการยืนยันตัวตนผ่านอัตลักษณ์ทางร่างกาย (ไบโอเมตริกซ์) เพื่อป้องกันการฉ้อโกงผ่านระบบ AI
เทคโนโลยี AI สามารถสร้างสรรค์สิ่งต่าง ๆ ได้ง่ายขึ้น แต่ในขณะเดียวกันก็กลายเป็นเครื่องมือให้มิจฉาชีพได้เช่นกัน เราจึงทำได้แค่ระมัดระวังตัวให้มากขึ้นและหาทางป้องกันตัวเองไม่ให้เป็นเหยื่อ ทางที่ง่ายที่สุดคือไม่รับสายเบอร์แปลก แต่ถ้าจำเป็นต้องรับสาย ควรปล่อยให้อีกฝ่ายพูดก่อน เพื่อป้องกันการถูกอัดเสียง ซึ่งหากได้ยินเสียงแล้วไม่ลื่นไหลเหมือนมนุษย์ ออกเสียงแปร่ง ๆ ก็อาจจะตีความได้ว่ากำลังคุยกับ AI อยู่
ที่มา: Insider, The Conversation, The New York Times