ตํารวจสอบสวนกลาง เตือนระวังมิจฉาชีพ ใช้ Deepfake ปลอมเป็นบุคคลมีชื่อเสียง เผยแพร่ข่าวปลอม พร้อมแนะวิธีสังเกตุเสียง Ai
สำนักข่าวอิศรา (www.isranews.org) รายงานว่า เมื่อวันที่ 20 พ.ย. 2566 ตามที่ พล.ต.ท.จิรภพ ภูริเดช ผบช.ก. มีนโยบายเชิงรุก และแจ้งเตือนให้ประชาชนรู้เท่าทันถึงอาชญากรรมทางเทคโนโลยี พร้อมกําชับให้ทำการสืบสวนจับกุมมาโดยตลอดนั้น
ล่าสุด ขณะมิจฉาชีพใช้เทคโนโลยีที่ทําให้เกิด การปลอมแปลงข้อมูล เช่น Deepfake และ Fake Voice ซึ่งเป็นการปลอมแปลงข้อมูล,ตัดต่อภาพ ตัดต่อ ข้อความ ตกแต่งเสียงพูด และสร้างคลิปวิดีโอปลอมบุคคลที่มีชื่อเสียง ให้ดูเหมือนจริง ส่งผลให้ประชาชนต้องระวัง และเข้าใจถึงการใช้เทคโนโลยีนี้ เพื่อป้องกันการถูกใช้เป็นเครื่องมือในวัตถุประสงค์ที่ไม่ดี เช่น การเผยแพร่ข่าวปลอม หรือ การก่ออาชญากรรมอื่นๆ
การปลอมภาพคลิปด้วย Deepfake จะได้ภาพที่มีความคมชัดสูง และท่าทางที่เสมือนจริงมากขึ้น หรือแม้กระทั่งการแปลงเสียงผ่านแอปพลิเคชันต่างๆ ก็สามารถเปลี่ยนน้ําเสียง เช่น ชายเป็นหญิง, หญิงเป็นชาย ผู้ใหญ่เป็นเด็ก, การเลียนเสียง และแปลงเสียง ซึ่งผู้ไม่ประสงค์ดีอาจใช้เป็นเครื่องมือแอบอ้างเป็นบุคคลอื่น เพื่อประโยชน์บางอย่าง หรือหลอกลวงให้โอนเงิน ส่งผลให้เกิดความเสียหายด้านอื่นด้วย
สำหรับข้อสังเกตุเจ้าหน้าที่แนะนําจุดสังเกต 'เสียง AI' แตกต่างจากเสียงมนุษย์อย่างไร?
1.จังหวะการเว้นวรรคคําพูด : เสียงพูดจาก AI จะไม่มีอารมณ์หรือความรู้สึก เสียงจึงจะไม่มีจังหวะหยุด ไม่มี เว้นวรรคจังหวะหายใจ และจะพูดประโยคยาว
2.น้ําเสียงราบเรียบ : เสียงจาก AI ที่มิจฉาชีพใช้จะมีเสียงที่ราบเรียบ ไม่มีการเน้นน้ําหนักเสียง หรือความสําคัญ ของคํา
3.คําทับศัพท์ : เสียงจาก AI จะพูดคําศัพท์เฉพาะไม่ค่อยชัด คําบางคําเวลาออกเสียง จะมีความผิดเพี้ยนไปบ้าง เนื่องจากAIอาจยังไม่สามารถออกเสียงวรรณยุกต์เสียงสูง-ตํา่ ได้ในบางคํา
นอกจากนี้ยังสามารถสังเกต 'ใบหน้า' ที่สร้างจาก AI ได้ดังนี้
1.สังเกตการขยับริมฝีปาก : หากเป็นคลิปสร้างจาก AI การขยับปากของคนในคลิปจะไม่สอดคล้องกับเสียงใน วิดีโอ และดูไม่เป็นธรรมชาติ
2.ใบหน้า : มีลักษณะที่ผิดสัดส่วนธรรมชาติ โดยเฉพาะเมื่อก้มเงยหน้าหรือหันซ้ายหันขวา
3.สีผิวเข้ม หรือ อ่อนเป็นหย่อมๆ : แสงและเงาบริเวณผิวไม่สอดคล้องต่อการเคลื่อนไหว
4.การกะพริบตาถี่เกินไป หรือน้อยเกินไป : ดูไม่เป็นธรรมชาติ
ดังนั้นควรตรวจสอบข้อมูลทุกครั้งก่อนที่จะเชื่อ หรือแชร์ข้อมูลต่างๆต่อ เพื่อให้มั่นใจว่าสิ่งที่เห็นเป็นเรื่องจริง จะได้ไม่ตกเป็นเหยื่อของมิจฉาชีพได้