การติดตามใบหน้าที่ไม่รุนแรงโดยใช้ OpenCV เพื่อความสามัคคี
สินทรัพย์นี้เป็นตัวอย่างการติดตามใบหน้าที่ไม่แข็งซึ่งสามารถสร้างแบบจำลองและติดตามส่วนที่ซับซ้อนหลายส่วนของใบหน้าของบุคคลใน webcamtexture แบบเรียลไทม์
รหัสคือการเขียนใหม่ของ https://github.com/masteringopencv/code/tree/master/chapter6_nonrigidfacetracking โดยใช้ "OpenCV for Unity"
・ Texture2dfacetrackersample - โดยการตรวจจับและติดตามหน้าจาก Texture2D วาดจุดและการเชื่อมต่อของใบหน้า
・ WebCamtextureFacetrackersample - โดยการตรวจจับและติดตามหน้าจาก WebCamTexture วาดจุดและการเชื่อมต่อของใบหน้า
・ FaceTrackerArarsample - โดยใช้จุดติดตามของใบหน้าแสดงวัตถุ AR
1.1.3
[Common] ปรับปรุงความเร็วในการประมวลผลเล็กน้อย
1.1.2
[Common] เปลี่ยนเนมสเปซเป็น OpenCVFacetracker (เพื่อหลีกเลี่ยงความขัดแย้ง Namespace และ ClassName)
[Common] แก้ไขคำเตือน CS0618: `UnityEngine.Application.loadLevel (String) 'ล้าสมัย:` ใช้ scenemanager.loadscene'
1.1.0
[สามัญ] เปลี่ยนเป็นวิธีการเคลื่อนย้ายวัตถุ AR
1.0.9
[Common] สนับสนุน“ OpenCV สำหรับ Unity 2.0.0”
April 8, 2025
April 8, 2025
April 7, 2025
April 7, 2025
April 7, 2025
April 7, 2025
April 7, 2025
April 7, 2025
April 7, 2025
April 7, 2025