簡易檢索 / 詳目顯示

研究生: 張國君
Kuo-Jun Chang
論文名稱: 基於電腦視覺的手勢辨識系統
Computer Vision Based Hand Gesture Recognition System
指導教授: 黃仲陵
Chung-Lin Huang
連振昌
Cheng-Chang Lien
口試委員:
學位類別: 碩士
Master
系所名稱: 電機資訊學院 - 電機工程學系
Department of Electrical Engineering
論文出版年: 2005
畢業學年度: 93
語文別: 中文
論文頁數: 44
中文關鍵詞: 電腦視覺手勢辨識系統主值分析
外文關鍵詞: computer, vision, gesture, recognition, system, pca
相關次數: 點閱:1下載:0
分享至:
查詢本校圖書館目錄 查詢臺灣博碩士論文知識加值系統 勘誤回報
  • 在本論文中,我們提出一個基於電腦視覺下所做的手勢辨識系統來辨識六種不同的手形。這個系統包括了三個主要的模組:即時的手勢追蹤模組,手形輪廓的分離模組以及最後一個手勢辨識模組。首先,我們利用particle filtering的演算法來做手勢的追蹤,接著再利用active contours做手形輪廓的分離來將手勢的外形取出,取出來的手形我們利用Fourier Descriptor取其前23個係數當成這個手形的feature vector,再利用PCA的分析將這個特徵向量做維度的化簡,並且投影到特徵空間上,投影完的特徵向量會跟六種手勢的cluster center做比較,找出與哪一種手勢的中心距離最短,以此方法即可判斷使用者比的是哪一種手勢。這六種手勢的cluster center都是利用K-means clustering的方式得到。在實驗中我們總共辨識六種手形來測試我們的系統,而辨識率大約都在85%以上。
    本系統為配合科專計劃所設計的一套系統,主要是利用於醫療看護方面,可以讓殘障者或一些老人行動不方便的人來使用。透過本系統再加上一些自動控制的電路搭配,可以讓這些人控制週遭的一些電器設備,例如燈的開關、冷氣的開關、電視的頻道切換音量大小調整或是控制病床的升降等等。
    本論文的第一章為簡介。在第二章中,我們利用particle filtering的演算法找出手的位置並用一個方形框出手的區域,接著做這個方形區域大小的修正,使其能完全框住整個手勢與手形。在第三章中,我們先對particle filtering所框出來的手勢區域裡做膚色以及邊緣的偵測,接著再利用active contour的演算法將手勢區域裡的手形分離出來。在第四章中,我們利用Fourier Descriptor將手的形狀轉為其相對應的特徵向量,接著利用PCA的分析方式化簡特徵向量的維度。我們將所有的training data利用K-means clustering將其區分為六個cluster。當有一手勢輸入時,此手勢的特徵向量將會與六個cluster center比較,找出與其距離最短的cluster center,即可辨識出此輸入手勢為何種手勢。在第五章中,實驗結果是以解析度為256×256的全彩模式,以每秒擷取15張畫面的速度進行分析。對所提出的六種手勢做成功率的分析。另外,本實驗也與其它的一些辨識方式來做比較。在第六章中,目前這個手勢辨識系統仍然有一些限制,如何去改進並去除這些限制是我們未來努力的目標。此外,這套系統提供了做動態手勢辨識一個很好的基礎,將本系統發展並擴展成一個動態的手勢辨識系統也是我們未來的一個方向。


    Chapter 1 Introduction...................1 Chapter 2 Hand Tracking..................6 Chapter 3 Hand Segmentation..............19 Chapter 4 Hand Gesture Recognition.......28 Chapter 5 Experimental Results...........34 Chapter 6 Conclusion and Future Work.....42 Reference 43

    1)K. Nummiaro, E. Koller-Meier, and L. Van Gool, “An adaptive color-based particle filter,” IVC(21), No.1, January 2003, pp.99-110.
    2)C. Shan, Y. Wei, T. Tan, and F. Ojardias, “Real time tracking by combining particle filtering and mean shift,” Automatic Face and Gesture Recognition (AFGR04), pp.669-674.
    3)K. Okuma, A. Taleg, N. de Freitas, J. Little, and D. Lowe, “A boosted particle filter: multitarget detection and tracking,” European Conference on Computer Vision, 2004.
    4)J. Vermaak, A. Doucet, and P. P´erez, “Maintaining multi-modality through mixture tracking,” International Conference on Computer Vision (ICCV), 2004.
    5)S. Zhou, R. Chellappa, and B. Moghaddam., “Appearance tracking using adaptive models in a particle filter,” Asian Conference on Computer Vision (ACCV), January 2004.
    6)X. Zhu, J. Yang, and A. Waibel, “Segmenting hands of arbitrary color,” Automatic Face and Gesture Recognition (AFGR00), pp.446-453.
    7)T. Morris and O. S. Elshehry, “Hand segmentation from live video,” In The 2002 Intl. Conference on Imaging Science, Systems, and Technology, UMIST, Manchester, UK, 2002.
    8)M. Kass, A. Witkin and D. Terzopoulos, “Snake: Active contour model,” Int J. Computer Vision, Vol. 1, pp.321 – 331, 1987
    9)V. Caselles, R. Kimmel, and G. Sapiro, “Geodesic active contours,” IJCV, Vol. 22, No. 1, pp.61–79, 1997.
    10)A. Chakraborty, L. Staib, and J. Duncan, “Deformable boundary finding in medical images by integrating gradient and region information,” IEEE Trans. Med. Imag., Vol. 15, 1996.
    11)N. Paragios and R. Deriche, “Geodesic active regions for motion estimation and tracking,” in ICCV, Corfu Greece, 1999.
    12)F. Precioso and M. Barlaud, “B-Spline Active contour with handling of topology changes for fast video segmentation,” JASP(2002), No. 6, June 2002, pp.555-560.
    13)M. Jeong, Y. Kuno, N. Shimada, and Y. Shirai, “Two-hand gesture recognition using coupled switching linear model,” ICPR02.
    14)D. Williams and M. Shah. "A fast algorithm for active contours and curvature estimation", CVGIP: Image Understanding. Vol. 55, No. 1, January 1992, pp. 14-26.
    15)Aaron, E. Bobick and James W. Davis, “The recognition of human movement using temporal templates,” IEEE Transactions on Pattern Analysis and Machine Intelligence, 23(3):257-267, 2001.
    16)L. Brethes, P. Menezes, F. Lerasle, and J. Hayet, “Face tracking and hand gesture recognition for human-robot interaction,” International Conference on Pattern Analysis (ICPA04)
    17)A. Jonathan, A. Vassilis, Y. Quan, and S. Stan, “Simultaneous Localization and Recognition of Dynamic Hand Gestures,” IEEE Workshop on Motion and Video Computing, Jan. 2005.

    無法下載圖示 全文公開日期 本全文未授權公開 (校內網路)
    全文公開日期 本全文未授權公開 (校外網路)

    QR CODE