เทคโนโลยี ai ถูกใช้ผิดทางในวงการบันเทิง โดยนิยมใช้ปลอมแปลงหน้าดาราผู้มีชื่อเสียง ซ้อนไปกับคลิปหนังลามก
ทำให้เกิดข่าวปลอมอื้อฉาวของดาราหรือนักการเมืองผู้ชื่อเสียงจำนวนมากขึ้นเรื่อยๆ เริ่มจากในสหรัฐอเมริกา ลามมาถึงเกาหลีใต้ ซึ่งเหยื่อส่วนใหญ่เป็นเพศหญิงผู้มีชื่อเสียง
และล่าสุด สถาบันวิทยาศาสตร์และเทคโนโลยีขั้นสูงแห่งเกาหลีใต้ หรือ KAIST (The Korea Advanced Institute of Science and Technology) จึงเปิดตัวแอพชื่อว่า “KaiCatch” ตรวจจับการตัดต่อใบหน้าในคลิปปลอมต่างๆ
กว่าจะมาเป็นแอพนี้ ทีมวิจัยต้องรวบรวมรูปหรือคลิปจากผู้ใช้งานจำนวนมหาศาล เพื่อให้ ai ช่วยตรวจสอบ
ช่วงแรก KaiCatch ใช้ได้แต่ในระบบแอนดรอยด์ และจำกัดในเกาหลีใต้เท่านั้น และจะขยายไปบนระบบ iOS ต่อไป และขั้นต่อไปจะขยายไปรองรับภาษาจีน อังกฤษ และญี่ปุ่นด้วย