เกาหลีออกแอพจับคลิปโป๊ deepfake ปลอมหน้าคนดัง

เกาหลีใต้เปิดตัวแอพตรวจจับความบิดเบือดบนใบหน้าในคลิปปลอม ข่าวปลอมต่างๆ โดยเฉพาะคลิปโป๊ที่ตัดต่อหน้าคนดังลงไป

เทคโนโลยี ai ถูกใช้ผิดทางในวงการบันเทิง  โดยนิยมใช้ปลอมแปลงหน้าดาราผู้มีชื่อเสียง ซ้อนไปกับคลิปหนังลามก

 

ทำให้เกิดข่าวปลอมอื้อฉาวของดาราหรือนักการเมืองผู้ชื่อเสียงจำนวนมากขึ้นเรื่อยๆ เริ่มจากในสหรัฐอเมริกา ลามมาถึงเกาหลีใต้  ซึ่งเหยื่อส่วนใหญ่เป็นเพศหญิงผู้มีชื่อเสียง

 

และล่าสุด สถาบันวิทยาศาสตร์และเทคโนโลยีขั้นสูงแห่งเกาหลีใต้ หรือ KAIST (The Korea Advanced Institute of Science and Technology) จึงเปิดตัวแอพชื่อว่า “KaiCatch” ตรวจจับการตัดต่อใบหน้าในคลิปปลอมต่างๆ

 

กว่าจะมาเป็นแอพนี้ ทีมวิจัยต้องรวบรวมรูปหรือคลิปจากผู้ใช้งานจำนวนมหาศาล เพื่อให้ ai ช่วยตรวจสอบ

 

ช่วงแรก KaiCatch ใช้ได้แต่ในระบบแอนดรอยด์ และจำกัดในเกาหลีใต้เท่านั้น และจะขยายไปบนระบบ iOS ต่อไป   และขั้นต่อไปจะขยายไปรองรับภาษาจีน อังกฤษ  และญี่ปุ่นด้วย

 

 

 ข่าวจาก
  koreaherald.com/view.php?ud=20210330000699

You may be interested in

Latest post from Facebook


Warning: Invalid argument supplied for foreach() in /var/www/vhosts/digitalagemag.com/httpdocs/wp-content/themes/geeky-child/shortcodes/new-listing.php on line 19

Related Posts

กฏหมายใหม่ใช้ทั่วไทยแล้ว – ห้ามคนขับหยิบจับมือถือใช้ขณะขับรถ

จากนี้ไป การขับรถไปคุยไป ต้องใช้หูฟังเท่านั้น ห้ามหยิบจับมือถือขณะขับ ถ้าจำเป็นต้องหยิบจับก็ต้องจอดรถก่อน …