จอผู้ช่วยประจำบ้านพลัง AI และ IoT อย่าง “Echo” ของแอมะซอน ได้ถูกเพิ่มฟีเจอร์ใหม่ “Show and Tell” ไว้บอกผู้พิการทางสายตาว่ากำลังถืออะไรอยู่
…ฟีเจอร์นี้อยู่ในระบบปฏิบัติการเอไอ ” Alexa” ของแอมะซอนเอง ซึ่งติดตั้งอยู่ในนั้น
ขั้นตอนคือ ผู้ใช้งานต้องยกสิ่งของนั้น จ่อที่หน้ากล้องหน้าของจอ Echo แล้วพูดถามว่า “Alexa, what am I holding ?”
แล้วจากนั้นทางระบบจะส่งภาพไปสืบค้นกับฐานข้อมูล AI ผ่านออนไลน์ แล้ววิเคราะห์ส่งคำตอบกลับออกมาเป็นเสียงพูดอัตโนมัติ
ข่าวจาก
blog.aboutamazon.com/devices/alexa-what-am-i-holding