NHẬN DẠNG CÁC TƯ THẾ CON NGƯỜI TỪ DỮ LIỆU CỦA CẢM BIẾN ĐỘ SÂU SỬ DỤNG ĐẶC TRƯNG KHOẢNG CÁCH VÀ MÀU DA

Đinh Đồng Lưỡng

Tóm tắt


Bài báo trình bày một cách tiếp cận mới để nhận dạng phục vụ tái tạo tư thế con người từ dữ liệu ảnh của cảm biến độ sâu (Kinect camera), sử dụng đặc trưng khoảng cách trên dữ liệu ảnh độ sâu và xác định vùng da trên ảnh màu tương ứng. Đầu tiên, thông tin từ ảnh độ sâu được xử lý và biểu diễn dạng đồ thị khoảng cách. Những điểm quan tâm trên cơ thể người hay cụ thể là các điểm khớp nối sẽ được xác định dựa vào đặc trưng khoảng và dò tìm các vùng bàn tay, bàn chân và mặt thông qua ảnh màu tương ứng bằng thuật giải dò tìm vùng da (skin detection) trên ảnh màu. Khoảng cách được tính từ các điểm trên đồ thị tới một điểm trọng tâm của cơ thể. Sử dụng các điểm khớp đã được tính để xác định ma trận chuyển đổi trên mỗi thành phần. Các ma trận được xác định sẽ được ánh xạ lên mô hình người 3D. Cuối cùng, mô hình người 3D phản ánh việc tái tạo tư thế của con người. Trong phần thực nghiệm, chúng tôi đã đánh giá kết quả của việc tái tạo lại các tư thế con người bằng phương pháp định tính cho kết quả cải thiện so với việc chỉ dùng đặc trưng khoảng cách và có thể thực hiện thời gian thực.

Từ khóa


3D human body model; 3D human pose recovery; Depth image; Geodesic distance.

Toàn văn:

PDF

Các tài liệu tham khảo


Chen, L., Wei, H., & Ferryman, J. (2013). A survey of human motion analysis using depth imagery. Pattern Recognition Letters, 34(15), 1995-2006.

Dinh, D. L., Han, H. S., Jeon, H. J., Lee, S., & Kim, T. S. (2013). Principal direction analysis-based real-time 3D human pose reconstruction from a single depth image. Paper presented at The Fourth Symposium on Information and Communication Technology, Vietnam.

Ganapathi, V., Plagemann, C., Koller, D., & Thrun, S. (2010). Real time motion capture using a single time-of-flight camera. Paper presented at The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), USA.

Kim, D., & Kim, D. (2008). A novel fitting algorithm using the ICP and the particle filters for robust 3D human body motion tracking. Paper presented at The ACM Workshop on Vision Networks for Behavior Analysis, Canada.

Moeslund, T.B., Hilton, A., & Kruger, V. (2006). A survey of advances in vision-based human motion capture and analysis. Computer Vision and Image Understanding, 104(2), 90-126.

Mundermann, L., Corazza, S., & Andriacchi, T. P. (2007). Accurately measuring human movement using articulated ICP with soft-joint constraints and a repository of articulated models. Paper presented at the 2007 IEEE Conference on Computer Vision and Pattern Recognition, USA.

Schwarz, L. A., Mkhitaryan, A., Mateus, D., & Navab, N. (2012). Human skeleton tracking from depth data using geodesic distance and optical flow.Image and Vision Computering, 30(3), 217-226.

Shotton, J., Fitzgibbon, A., Cook, M., Sharp, T., Finocchio, M., Moore, R., Kipman, A., & Blake, A. (2013). Real-time human pose recognition in parts from single depth images. Communications of the ACM, 56(1), 116-124.

Tam, G. K. L., Cheng, Z. Q., Lai, Y. K., Langbein, F. C., Liu, Y. H., Marshall, D., Martin, R. R., Sun, X. F., & Rosin, P. L. (2013). Registration of 3D point clouds and meshes: A survey from rigid to nonrigid. IEEE Transactions on Visualization and Computer Graphics, 19(7), 1199-1217.

Thang, N. D., Kim, T. S., Lee, Y. K., & Lee, S. (2011). Estimation of 3-D human body posture via co-registration of 3-D human model and sequential stereo information. Applied Intelligence, 35(2), 163-177.




DOI: http://dx.doi.org/10.37569/DalatUniversity.7.2.238(2017)

Các bài báo tham chiếu

  • Hiện tại không có bài báo tham chiếu.


Copyright (c) 2017 Đinh Đồng Lưỡng

Creative Commons License
Công trình này được cấp phép theo Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
Văn phòng Tạp chí Đại học Đà Lạt
Nhà A25 - Số 1 Phù Đổng Thiên Vương, Đà Lạt, Lâm Đồng
Email: tapchikhoahoc@dlu.edu.vn - Điện thoại: (+84) 263 3 555 131

Creative Commons License
Trên nền tảng Open Journal Systems
Thực hiện bởi Khoa Công nghệ Thông tin