본 논문에서는 SOM 클러스터와 파티클 필터를 결합한 3차원 손 포즈 추정 방법을 제안한다. 기존 파티클 필터는 이전 영상에서 추정된 포즈 결과만을 사용하여 국소 최소치에 빠지는 한계가 있다. 이를 극복하고자 본 논문에서는, SOM 클러스터에서 추정한 손 포즈와 이전 영상에서 추정된 손 포즈를 결합하여 파티클 필터의 샘플링 단계를 개선하였다. 또한, Kinect 센서에서 제공하는 깊이 영상을 샘플의 우도를 계산하기 위한 관측값으로 사용하였다. 입력 깊이 영상과 모델 깊이 영상 간의 다른 포즈는 큰 차이를 보이기 때문에 잘못된 포즈로 제외 할 수 있다는 장점이 있다. 실험 결과, 제안된 방법은 상대적으로 적은 수의 파티클을 이용하여 다양한 실험 환경에서 강인한 손 추정 결과를 보임을 확인할 수 있었다.In this paper, we propose a new 3D hand pose estimation method that integrates the particle filter algorithm and a SOM cluster. Because of using the estimated poses from previous images, the conventional particle filter has a problem which gets trapped into local minima. The proposed method can solve the problem by improving the sampling step that integrates previously estimated poses and output of SOM. Also to evaluate the likelihood of samples, we compare depth data of the 3D model and the input image which is provided from Kinect sensor. We can exclude wrong poses since different poses between input depth data and model depth data make a huge depth difference. Experimental results show that the proposed method reduces a number of particles and estimates hand poses robustly compared to the particle filter.