Luận án Phát triển các kỹ thuật biểu diễn biểu cảm khuôn mặt 3D
1. Sự cần thiết của đề tài
Gần đây, có nhiều bộ phim không phải do con người đóng, vì trên thực tế khó để
có thể tìm được diễn viên có ngoại hình đáp ứng những yêu cầu như những nhân vật
trong phim Avatar, hay như con khỉ đột trong phim KingKong Tuy nhiên, điều gì
khiến cho con Khỉ đột hung dữ trong KingKong hay nhân vật Jake và Neytiri trong
Avatar có thể giành được nhiều tình cảm từ khán giả đến vậy? Có lẽ một trong những
yếu tố quan trong nhất chính là chúng ta cảm thấy đồng cảm với nhân vật 3D thông
qua cử chỉ trên khuôn mặt nhân vật.
Hình 0.1 Các nhân vật trong phim Avatar
Nghiên cứu về biểu cảm khuôn mặt nhằm mục đích xây dựng những nhân vật
hoạt hình có các cử chỉ, biểu cảm như những nhân vật ngoài thế giới thực nhằm ứng
dụng trong những bộ phim hoạt hình (ví dụ: Đi tìm Nemo), hoặc trong các bộ phim
thực tại tăng cường, ví dụ như: Avatar, Transformers, Avanger, The Lost of Ring .
và trong xây dựng nhân vật của những trò chơi 3D là một công việc quan trọng và
đang được sự quan tâm của nhiều nhà khoa học trong các lĩnh vực khác nhau từ các
nghệ sỹ hội họa điêu khắc đến các nhà khoa học nghiên cứu về nhân học cho đến
những nhà khoa học trong lĩnh vực công nghệ thông tin. Và mặc dù đã có rất nhiều
công trình nghiên cứu về biểu cảm và thể hiện biểu cảm khuôn mặt nhưng chưa có
nghiên cứu nào thực sự hoàn thiện và phù hợp cho nhiều lớp bài toán khác nhau, mỗi
hướng tiếp cận chủ yếu được đưa ra để giải quyết một vấn để nào đó được đặt ra.2
Hình 0.2 Biểu cảm trạng thái mặt trong phim hoạt hình 3D
Các ứng dụng của biểu diễn biểu cảm khuôn mặt là rất đa dạng như: máy tính
tương tác với người sử dụng như một người bình thường với đầy đủ các cảm xúc vui
buồn giận dữ vv Trạng thái biểu cảm khuôn mặt trong ảnh là một vấn đề quan trọng
trong một hệ thống phân tích và tổng hợp dữ liệu khuôn mặt người, đây cũng là một
trong những bài toán trọng tâm trong những hướng nghiên cứu về dữ liệu đa phương
tiện trong thời gian qua. Một số ứng dụng trong cuộc sống có liên quan đến biểu cảm
khuôn mặt có thể kể đến: Hệ thống giám sát và nhận dạng khuôn mặt, hệ thống tìm
ảnh dựa trên nội dung, xây dựng các khuôn mặt nhân vật đóng thế trong điện ảnh, các
hệ thống kiểm soát vào ra, các hệ thống xác thực bằng sinh trắc học khuôn mặt
Tuy có xuất hiện trong nhiều loại ứng dụng khác nhau như vậy nhưng việc sử
dụng biểu cảm khuôn mặt trong những ứng dụng đó có thể có những sự khác biệt lớn
tùy vào yêu cầu thực tế, chẳng hạn:
Trong một hệ giám sát hoạt động từ luồng video thu tại những địa điểm không
có yêu cầu cao về tính bảo mật như thang máy, hành lang, cửa vào một cơ quan
khi đó cần thiết phải có những chức năng tự động phát hiện toàn bộ những khuôn mặt
trên dòng video trong thời gian thực, đặc biệt là những khuôn mặt có sự chuyển động.
Trong hệ thống này, đòi hỏi các thuật toán trích rút đặc trưng được thực hiện một
cách nhanh chóng. Theo các yêu cầu đó, thông thường các giải thuật được thiết kế sẽ
dựa trên một mô hình giám sát đối tượng cùng với việc triển khai các phương pháp
phát hiện các chuyển động cục bộ cũng như toàn cục trên khung hình.
Các hệ thống biên tập ảnh, thường giúp cho những người không cần có quá
nhiều kiến thức về đồ họa và do đó, chương trình xây dựng nhiều tác vụ trang điểm3
và làm đẹp. Chẳng hạn như tinh chỉnh toàn bộ hoặc một phần trong khuôn mặt, hiệu
chỉnh một số đặc trưng trên da như làm mịn, mụn nhọn, tàn nhang, giảm thiểu các
nếp nhăn, hiệu chỉnh sự chiếu sáng trên vùng mặt, khử hiện trượng mắt đỏ Để có
thể hoàn thành được các tác vụ đó và đảm bảo sự thay đổi vẫn mang cảm giác tự
nhiên cho người xem, một yêu cầu gần như bắt buộc là phải xác định được một cách
chính xác các điểm đặc trưng cho các thành phần khuôn mặt, chẳng hạn như các điểm
góc mắt, các điểm cạnh môi, điểm mũi, đường viền cằm Do vậy, các giải thuật
được thiết kế thường không yêu cầu cao về tốc độ thực hiện mà là yêu cầu độ chính
xác thật cao trong việc xác định tập điểm đặc trưng chi tiết trên khuôn mặt và do
chương trình cũng không yêu cầu phải tự động hoàn toàn nên một hướng tiếp cận
được quan tâm đặt ra là một kịch bản sử dụng bán tự động yêu cầu người dùng chọn
một lượng giới hạn các điểm trên khuôn mặt như góc miệng, góc mắt, đỉnh mũi để
làm cơ sở cho việc tính toán nốt các điểm đặc trưng chi tiết khác trên khuôn mặt.
Nghiên cứu về mặt người là một trong những hướng nghiên cứu được rất nhiều
sự quan tâm của các nhà khoa học trên thế giới cũng như trong nước. Các nghiên cứu
trong lĩnh vực này được chia thành hai hướng chính: Thứ nhất, liên quan đến thị giác
máy, phát hiện nhận dạng mặt người và các trạng thái biểu cảm của mặt người. Thứ
hai, liên quan đến mô phỏng, biểu diễn mô hình mặt người cùng với các trạng thái
khác nhau.
Với mục đích kết nối giữa hai hướng, cũng như các nghiên cứu về vấn đề trích
chọn đặc trưng khuôn mặt mà không sử dụng điểm đánh dấu và tái thể hiện lại các
biểu cảm của khuôn mặt trên mô hình 3D dựa trên các đặc trưng đã thu được. Nhất
là, ở Việt Nam hiện nay, chưa có nhiều nghiên cứu về vấn đề này, mặc dù những ứng
dụng thực tế đang đòi hỏi có những cách giải quyết cụ thể, chẳng hạn như phần mềm
nhận dạng và biểu diễn ngôn ngữ cử chỉ cho người khiếm thính, bài toán phát thành
viên ảo, cử chỉ của robot, phim ảnh, quảng cáo. vì sự hấp dẫn của bài toán những
ứng dụng thực tế của nó, nghiên cứu sinh đã chọn đề tài nghiên cứu : “Phát triển các
kỹ thuật biểu diễn cử chỉ, trạng thái khuôn mặt 3D dưới sự trợ giúp của camera”.
Tóm tắt nội dung tài liệu: Luận án Phát triển các kỹ thuật biểu diễn biểu cảm khuôn mặt 3D
BỘ THÔNG TIN VÀ TRUYỀN THÔNG HỌC VIỆN CÔNG NGHỆ BƯU CHÍNH VIỄN THÔNG HUỲNH CAO TUẤN PHÁT TRIỂN CÁC KỸ THUẬT BIỂU DIỄN BIỂU CẢM KHUÔN MẶT 3D LUẬN ÁN TIẾN SĨ KỸ THUẬT Hà Nội – 2021 BỘ THÔNG TIN VÀ TRUYỀN THÔNG HỌC VIỆN CÔNG NGHỆ BƯU CHÍNH VIỄN THÔNG HUỲNH CAO TUẤN PHÁT TRIỂN CÁC KỸ THUẬT BIỂU DIỄN BIỂU CẢM KHUÔN MẶT 3D Chuyên ngành : Hệ thống thông tin Mã số : 9.48.01.04 LUẬN ÁN TIẾN SĨ KỸ THUẬT NGƯỜI HƯỚNG DẪN KHOA HỌC 1. PGS. TS. Đỗ Năng Toàn 2. TS. Nguyễn Thanh Bình Hà Nội – 2021 i LỜI CẢM ƠN Xin chân thành cảm ơn Quý thầy/cô Học viện Công nghệ Bưu Chính Viễn Thông đã giúp đỡ tận tình để nghiên cứu sinh hoàn thành Luận án. Xin bày tỏ lòng biết ơn sâu sắc đến hai vị Thầy kính yêu, đó là PGS.TS. Đỗ Năng Toàn và TS. Nguyễn Thanh Bình; những người đã tận tình hướng dẫn, gợi ý và cho nghiên cứu sinh những lời khuyên hết sức bổ ích trong suốt quá trình thực hiện luận án. Bên cạnh đó nghiên cứu sinh xin gửi lời cảm ơn đến Ban Lãnh đạo, những thầy cô quản lý Sau đại học của Học viện Công nghệ Bưu Chính Viễn Thông đã hỗ trợ trong quá trình nghiên cứu sinh nghiên cứu tại Trường. Nghiên cứu sinh xin chân thành cảm ơn Trường Đại học Lạc Hồng là nơi nghiên cứu sinh đã và đang làm việc; qua đây xin trân trọng gửi lời cảm ơn chân thành đến Ban lãnh đạo Nhà Trường vì đã không ngừng quan tâm, khích lệ và tạo điều kiện thuận lợi để nghiên cứu sinh có thời gian hoàn thành nhiệm vụ nghiên cứu và thực hiện Luận án này. Đồng thời, nghiên cứu sinh cũng xin cảm ơn sự hợp tác của các đồng nghiệp ở Viện công nghệ thông tin - Viện Hàn lâm Khoa học và Công nghệ Việt Nam. Qua sự hợp tác này đã giúp nghiên cứu sinh nhìn nhận vấn đề nghiên cứu ở nhiều góc độ khác nhau, hoàn thiện hơn thông qua các buổi thảo luận của nhóm. Bên cạnh đó, nghiên cứu sinh xin cảm ơn sự động viên, chia sẻ của các anh/chị nghiên cứu sinh trong suốt thời gian cùng nhau học tập và nghiên cứu tại Trường. Cuối cùng, con xin chân thành cảm ơn Cha, Mẹ đã luôn động viên trong quá trình học tập. Trân trọng, Huỳnh Cao Tuấn ii LỜI CAM ĐOAN Trên cơ sở nghiên cứu lý thuyết, kiến thức thực tiễn và dưới sự hướng dẫn khoa học của PGS.TS. Đỗ Năng Toàn và TS. Nguyễn Thanh Bình. Tôi xin cam đoan rằng, bản luận án tiến sĩ này là công trình nghiên cứu của bản thân và không sao chép nội dung từ các luận án hay công trình khác. Các kỹ thuật và những kết quả trong luận án là trung thực, được đề xuất từ những yêu cầu thực tiễn, chưa từng được công bố trước đây. Nghiên cứu sinh Huỳnh Cao Tuấn iii MỤC LỤC LỜI CẢM ƠN .............................................................................................................. i LỜI CAM ĐOAN ....................................................................................................... ii MỤC LỤC ................................................................................................................. iii DANH MỤC CÁC TỪ VIẾT TẮT ............................................................................ v DANH MỤC KÝ HIỆU TOÁN HỌC ...................................................................... vii DANH MỤC CÁC BẢNG ...................................................................................... viii DANH MỤC HÌNH ................................................................................................... ix MỞ ĐẦU ..................................................................................................................... 1 1. Sự cần thiết của đề tài .......................................................................................... 1 2. Đối tượng, Mục tiêu, Phạm vi và Phương pháp nghiên cứu ................................ 3 3. Các đóng góp của luận án .................................................................................... 5 4. Bố cục luận án ...................................................................................................... 6 Chương 1 ..................................................................................................................... 7 TỔNG QUAN VỀ TRÍCH CHỌN ĐẶC TRƯNG VÀ BIỂU DIỄN BIỂU CẢM KHUÔN MẶT ............................................................................................................ 7 1.1. Tổng quan về một hệ thống biểu cảm khuôn mặt ...................................... 7 1.1.1. Khái niệm biểu cảm mặt người .................................................................. 8 1.1.2. Định nghĩa điểm điều khiển ..................................................................... 10 1.1.3. Một số vấn đề trong một hệ thống mô phỏng biểu cảm ........................... 10 1.2. Nhận diện và trích chọn đặc trưng biểu cảm ............................................ 12 1.2.1. Một số phương pháp phát hiện khuôn mặt trong ảnh ............................... 12 1.2.2. Bài toán trích chọn đặc trưng biểu cảm khuôn mặt .................................. 16 1.2.3. Một số cách tiếp cận trích chọn đặc trưng ................................................ 17 1.3. Biểu diễn biểu cảm khuôn mặt ................................................................. 25 1.3.1. Các khía cạnh hình học của khuôn mặt người .......................................... 26 1.3.2. Một số vấn đề trong biểu diễn biểu cảm ................................................... 27 1.3.3. Một số phương pháp tiếp cận giải quyết bài toán ..................................... 28 1.4. Tổng kết chương và vấn đề nghiên cứu.................................................... 37 Chương 2 ................................................................................................................... 39 KỸ THUẬT TRÍCH CHỌN ĐẶC TRƯNG CỬ CHỈ VÀ ƯỚC LƯỢNG BIỂU CẢM .......................................................................................................................... 39 2.1 Bài toán phát hiện khuôn mặt ................................................................... 39 2.1.1 Mô hình khuôn mặt mẫu ........................................................................... 39 2.1.2 Phát hiện khuôn mặt ................................................................................. 44 2.1.3 Kết quả thử nghiệm .................................................................................. 44 2.2 Bài toán trích chọn đặc trưng cử chỉ ......................................................... 46 iv 2.2.1 Loại bỏ nhiễu hình ảnh ............................................................................. 48 2.2.2 Làm mịn bảo toàn cạnh của khuôn mặt .................................................... 49 2.2.3 Hiệu chỉnh ánh sáng và cải thiện đặc trưng khuôn mặt ............................ 50 2.2.4 Trích chọn đặc trưng cử chỉ của khuôn mặt ............................................. 51 2.3 Ước lượng biểu cảm khuôn mặt ............................................................... 61 2.4 Đề xuất kỹ thuật ước lượng biểu cảm khuôn mặt..................................... 64 2.4.1 Mô hình ước lượng ................................................................................... 64 2.4.2 Đề xuất sử dụng đặc trưng hình dạng ....................................................... 65 2.4.3 Hàm quyết định ........................................................................................ 66 2.4.4 Thử nghiệm ............................................................................................... 67 2.5 Tổng kết chương ....................................................................................... 72 Chương 3 ................................................................................................................... 74 BIỂU DIỄN CỬ CHỈ, BIỂU CẢM TRÊN KHUÔN MẶT 3D ................................ 74 3.1 Bài toán biểu diễn cử chỉ, biểu cảm khuôn mặt 3D .................................. 74 3.2 Kỹ thuật nội suy RBF ............................................................................... 76 3.2.1 Ý tưởng tiếp cận của thuật toán ................................................................ 76 3.2.2 Lựa chọn tham số hình dạng..................................................................... 77 3.2.3 Thuật toán nội suy .................................................................................... 79 3.3 Nội suy thể hiện các cử chỉ, biểu cảm của khuôn mặt người 3D ............. 82 3.3.1 Ước lượng tập vector đặc trưng ................................................................ 83 3.3.2 Tính toán mô hình đích ............................................................................. 85 3.3.3 Tính toán quá trình biến đổi ..................................................................... 86 3.4 Xác định tập điểm điều khiển phục vụ nắn chỉnh biến dạng .................... 88 3.4.1 Đặc trưng biến dạng của các điểm ............................................................ 88 3.4.2 Xác định các nhóm tương đồng và chọn điểm điều khiển ....................... 89 3.4.3 Phân tích hiệu quả trong biến đổi mô hình ............................................... 91 3.4.4 Thử nghiệm nắn chỉnh mô hình ................................................................ 92 3.5 Đề xuất xây dựng hệ thống mô phỏng biểu cảm khuôn mặt 3D .............. 97 3.6 Tổng kết chương ....................................................................................... 98 KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN .............................................................. 100 DANH MỤC CÁC CÔNG TRÌNH CÔNG BỐ ..................................................... 102 TÀI LIỆU THAM KHẢO ....................................................................................... 103 v DANH MỤC CÁC TỪ VIẾT TẮT Từ viết tắt Tiếng Anh Tiếng Việt 2D Two Dimension Hai chiều 3D Three Dimension Ba chiều AAM Active Appearance Model Mô hình định vị điểm điều khiển AF Average Filter Bộ lọc trung bình AMF Adaptive Median Filter Bộ lọc trung vị ANN Artificial Neural Network Mạng thần kinh nhân tạo ASM Active Shape Model Mô hình hình dạng AUs Facial Action Units Đơn vị hành động trên khuôn mặt BEs Basic Emotions Cảm xúc cơ bản BF Bilateral Filter Bộ lọc song phương CEs Compound Emotions Cảm xúc tổng hợp CLAHE Contrast-limited adaptive histogram equalization Cân bằng biểu đồ thích ứng có giới hạn tương phản CLM Constrained Local Model Mô hình cục bộ ràng buộc ECG Electrocardiogram Điện tâm đồ EEG Electroencephalogram Điện não đồ ELM Extreme Learning Machine Máy học cực độ EMG Electromyography Điện cơ FACS Facial Action Coding System Hệ thống mã hóa hành động trên khuôn mặt FER Facial Expression Recognition Nhận dạng biểu cảm khuôn mặt FLs Facial Landmarks Dấu mốc trên khuôn mặt GF Gaussian Filter Bộ lọc Gaussian HMM Hidden Marko Model Mô hình ẩn Marko vi Từ viết tắt Tiếng Anh Tiếng Việt HSV HUE, SATURATION, VALUE Vùng màu, đ ... s of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. [79] Mahardika C., Itimad R., Ahmad H. and Nadz S. (2013), Eye, lip and crying expression for virtual human. International Journal of Interactive Digital Media, 1(2). [80] Manusov V. (2016), Facial Expressions. The International Encyclopedia of Interpersonal Communication. [81] Martinkauppi, B. (2002), Face colour under varying illumination - analysis and applications. University of Oulu repository. [82] Matsumoto D., Sung Hwang H. (2011), Reading facial expressions of emotion. Psychological Science Agenda. [83] Mattela, G., Gupta, S.K. (2018), Facial Expression Recognition Using Gabor-Mean- DWT Feature Extraction Technique. In Proceedings of the 5th International Conference on Signal Processing and Integrated Networks (SPIN), Noida, India, 22–23 Februar, pp. 575– 580. [84] Micchelli CA (1986), Interpolation of scattered data: Distance matrices and conditionally positive definite functions. Constr Approx 2, pp. 11–22. [85] Michael J. Lyons, Miyuki Kamachi, Jiro Gyoba (2020), Coding Facial Expressions with Gabor Wavelets (IVC Special Issue). In Proceedings of the Third IEEE International Conference on Automatic Face and Gesture Recognition, Nara, Japan, pp. 200–205. [86] Nagao, M. A., Matsuyama, T. M. (1979), Edge Preserving Smoothing.. Computer Graphics and Image Processing, 9, pp. 374-407. [87] Ngo P.; Nicolas P.; Yukiko K.; Hugues T. (2014), Topology-Preserving Rigid Transformation of 2D Digital Images. IEEE Transactions on Image Processing, 23. 110 [88] Ojala, Timo, Matti Pietikainen, and David Harwood (1994), Performance evaluation of texture measures with classification based on Kullback discrimination of distributions. Proceedings of 12th international conference on pattern recognition., Vol. 1. IEEE. [89] Pantic M.; Rothkrantz L.J.M. (2000), Automatic analysis of facial expressions: The state of the art. IEEE TPAMI, 22(12), pp. 1424-1445. [90] Parke FI (1972), Computer generated animation of faces. Proceedings of the ACM annual conference, pp. 451-457. [91] Pizer, S. M., Amburn, E. P., Austin, J. D. , Cromartie, R., Geselowitz, R., Greer, T., Romeny, B. T. H., Zimmerman, J. B. (1987), Adaptive histogram equalization and its variations. Computer Vision, Graphics, and Image Processing, 39(3), pp. 355-368. [92] Raouzaiou A., Karpouzis K., and Kollias S. D. (2003), Online gaming and emotion representation. In N. N. García, J. M. Martínez, and L. Salgado, editors, Volume 2849 of Lecture Notes in Computer Science, pp. 298– 305. [93] Reisfeld, D., Wolfson, H., Yeshurun, Y. (1995), Context Free Attentional Operators: The Generalized Symmetry Transform. Computer Vision, Special Issue on Qualitative Vision. [94] Ren S. , He K. Girshick R., and Sun J. (2017), Faster R-CNN: towards real-time object detection with region proposal networks. IEEE Transactions on Pattern Analysis and Machine Intelligence, pp: 1137 - 1149 [95] Renan Fonteles Albuquerque; Paulo D. L. de Oliveira; Arthur P. de S. Braga (2018), Adaptive Fuzzy Learning Vector Quantization (AFLVQ) for Time Series Classification. Fuzzy Information Processing, pp. 385-397. [96] Rowley, H., Baluja, V., Kanade, T. (1998), Neural Network-Based Face Detection. IEEE Transactions on Pattern Analysis and Machine Intelligence, 20(1), pp. 23-38. [97] Scassellati B. (1998), Eye finding via face detection for a foevated, active vision system. Proceedings of 15th National Conference on Artificial Intelligence, pp. 1146-1151. [98] Schneiderman H., Kanade T. (1998), Probabilistic modeling of local appearance and spatial relationships for object detection. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, pp. 40-50. [99] Schoenberg IJ (1938), Metric spaces and completely monotone functions. Ann Math, 39, pp. 811–841. [100] Seo Y, Lewis J, Seo J, Anjyo K, Noh J. (2012), Spacetime expression cloning for blendshapes. ACM Transactions on Graphics, 31(2), pp. 1-12. 111 [101] Shaif C.; Soummyo P.C; Tapan K.H (2017), Vehicle detection and counting using haar feature-based classifier. IEEE: Annual Industrial Automation and Electromechanical Engineering Conference (IEMECON), 16-18 Aug. [102] Shishir Bashyal; Ganesh K.Venayagamoorthy (2008), Recognition of facial expressions using Gabor wavelets and learning vector quantization. Engineering Applications of Artificial Intelligence, 21, pp. 1056-1064. [103] Sterring, M., Andersen, H. J., and Granum, E. (1999), Skin Color Detection Under Changing Lighting Condition. Symposium on the Intelligent Robotics Systems, pp. 187-195. [104] Su H., Zheng G. (2008), A partial least squares regression-based fusion model for predicting the trend in drowsiness. IEEE Transactions on Systems, Man, and Cybernetics - Part A: Systems and Humans, 38(5), pp. 1085-1092. [105] Tayib S. Jamaludin Z. (2015), An Algorithm to Define Emotions Based on Facial Gestures as Automated Input in Survey Instrument. American Scientific Publishers Advanced Science Letters. [106] Tian Y.I., Kanade T., Cohn J.F (2001), Recognizing action units for facial expression analysis. IEEE Trans. Pattern Anal. Mach. Intell, 23, pp. 97–115. [107] Toan H.M., Toan D.N., Hien L.T., Lang T.V. (2012), Modeling the human face and its application for detection of driver drowsiness. International Journal of Computer Science and Telecommunications, 3(11), pp. 56-59. [108] Tomita, F. A., Tsuji, S. (1997), Extraction of Multiple regions by smoothing in selected neighborhoods. IEEE Trns. Systems, Man and Cybernetics SMC-7, pp. 107-109. [109] Tong-Yee L, Po-Hua H. (2003), Fast and intuitive metamorphosis of 3D polyhedral models using SMCC mesh merging scheme. Visualization and Computer Graphics, IEEE Transactions, 9(01), pp. 85 – 98. [110] Torre, F. D. L., Campoy, J., Cohn, J. F., Kanade, T. (2007), Simultaneous registration and clustering for temporal segmentation of facial gestures from video. Proceedings of the Second International Conference on Computer Vision Theory and Applications, 2, pp. 110- 115. [111] Turkan M., Pardas M., Enis Cetin A. (2008), Edge projections for eye localization. Optical Engineering, 47(4). [112] Valstar M., Jiang B., Méhu M., Pantic M., and Scherer K. (2011), The first facial expression recognition and analysis challenge. IEEE Int’l. Conf. Face and Gesture Recognition. 112 [113] Velásquez J. D. (1997), Modeling emotions and other motivations in synthetic agents. In Proceedings of the 14th National Conference on Artificial Intelligence and 9th Innovative Applications of Artificial Intelligence Conference (AAAI-97/IAAI-97), pp. 10–15. [114] Viola, Paul, and Michael J. (2001), Rapid object detection using a boosted cascade of simple features.. Proceedings of the 2001 IEEE computer society conference on computer vision and pattern recognition., Vol. 1. Ieee.. [115] Wang H. ,Li Z. ,Ji X., and Wang Y. (2017), Face r-cnn. Computer Vision and Pattern Recognition (cs.CV). [116] Wang Y., Ji X., Zhou Z. , Wang H., and Li Z. (2017), Detecting faces using region- based fully convolutional networks. Computer Vision and Pattern Recognition (cs.CV). [117] Wang Z., Ierapetritou M. (2017), A novel feasibility analysis method for black-box processes using a radial basis function adaptive sampling approach. AIChE Journal, 63, pp. 532-550. [118] Wang, P., Barrett, F., Martin, E., Milonova, M., Gur, R. E., Gur, R. C., Kohler, C., Verma, R (2008), Automated video-based facial expression analysis of neuropsychiatric disorders. Journal of Neuroscience Methods, 168(1), pp. 224–238. [119] Wang, Y., Lucey, S., Cohn, J. (2007), Non-Rigid Object Alignment with a Mismatch Template Based on Exhaustive Local Search. IEEE Workshop on Non-rigid Registration and Tracking through Learning. [120] Wiener, N. (1949), Extrapolation, Interpolation, and Smoothing of Stationary Time Series. New York: Wiley. [121] Wilson CA, Alexander O, Tunwattanapong B, Peers P, Ghosh A, Busch J, Hartholt A, Debevec P (2011), Facial cartography: interactive high-resolution scan correspondence. Conference: International Conference on Computer Graphics and Interactive Techniques, SIGGRAPH 2011, Vancouver, BC, Canada, August 7-11, 2011, pp. 205-214. [122] Wu T., Butko N. , Ruvolo P. , Whitehill J. , Bartlett M. and Movellan J. (2011), Action unit recognition transfer across datasets. Proc. IEEE Int. Conf. Autom. Face Gesture Anal, pp. 889-896. [123] Wu Y., Ai X. (2008), Face detection in color images using Adaboost algorithm based on skin color information. Proceedings of the First International Workshop on Knowledge Discovery and Data Mining, pp. 339-342. [124] Yang S. ,Xiong Y. ,Loy C. C. , and TangX. (2017), Face detection through scale- friendly deep convolutional networks. Computer Vision and Pattern Recognition (cs.CV). 113 [125] Yano K., Harada K. (2009), A facial expression parameterization by elastic surface model. International Journal of Computer Games Technology, 2009, pp. 1-11. [126] Yong Joo K.,et al (2005), Yong Joo Kim et al (2005), “3D warp brush: interactive free-form modeling on the responsive workbench. Proceedings Virtual Reality IEEE, pp. 279–280. [127] Yoshitomi, Y., Kim, S., Kawano, T., and Kitazoe, T. (2000), Effect of Sensor Fusion for Recognition of Emotional States Using Voice, Face Image and Thermal Image of Face.. presented at IEEE International Workshop on Robot and Human Interactive Communication. [128] You L., Southern R., Zhang J. (2009), Adaptive physics–inspired facial animation. Motion in Games, 5884, pp. 207-218. [129] Yu J.,Jiang Y.,Wang Z.,Cao Z., and Huang T. S. (2016), Unitbox: An advanced object detection network. Proceedings of the 24th ACM international conference on Multimedia, pp: 516–520 [130] Zhang C., Xu X., and Tu D. (2018), Face detection using improved faster RCNN. Computer Vision and Pattern Recognition (cs.CV). [131] Zhang S. ,Zhu X. ,Lei Z. , Shi H., Wang X., and Li S. (2017), Single shot scale- invariant face detector. Proceedings of the IEEE International Conference on Computer Vision (ICCV), pp. 192-201 [132] Zhang S., Wu Z., Meng H.M., and Cai L. (2010), Facial expression synthesis based on emotion dimensions for affective talking avatar. In Modeling Machine Emotions for Realizing Intelligence, SIST, pp. 109–132. [133] Zhang S., Zhu X., Lei Z., Shi H., Wang X., and Li S. Z. (2017), A CPU real-time face detector with high accuracy. IEEE International Joint Conference on Biometrics.. [134] Zhang, Jialiang, et al. (2020), Feature agglomeration networks for single stage face detection. Neurocomputing, 380, pp. 180-189. [135] Zuiderveld, K. (1994), Contrast limited adaptive histogram equalization. Graphics gems IV, Academic Press Professional, Inc., San Diego, CA.
File đính kèm:
- luan_an_phat_trien_cac_ky_thuat_bieu_dien_bieu_cam_khuon_mat.pdf
- LA_Huỳnh Cao Tuấn_Trang TT_E.pdf
- LA_Huỳnh Cao Tuấn_Trang TT_V.pdf
- LA_Huỳnh Cao Tuấn_TT.pdf
- QĐ_ Huỳnh Cao Tuấn.pdf