생몰정보
소속
직위
직업
활동분야
주기
서지
국회도서관 서비스 이용에 대한 안내를 해드립니다.
검색결과 (전체 1건)
원문 있는 자료 (1) 열기
원문 아이콘이 없는 경우 국회도서관 방문 시 책자로 이용 가능
목차보기더보기
표제지
제출문
핵심기술개발사업 보고서 초록
목차
제1장 서론 14
제1절 연구 개발의 필요성 14
1. 기술적 측면 14
2. 경제·산업적 측면 14
3. 사회·문화적 측면 15
제2절 연구 개발의 목표 16
제2장 기술개발 내용 및 방법 20
제1절 물체 인식 기반 전역적 자기 위치 추정 20
1. 지도 표현 20
가. 지역적 복합 지도 (Local Hybrid Map) 20
1) 수평 거리 지도 (Horizontal Depth Map) 20
2) 물체 위치 지도 (Object Location Map) 21
나. 전역적 위상 지도 (Global Topological Map) 23
2. 전역적 자기 위치 추정 24
가. Coarse pose 측정 24
제2절 Object-entity based Hybrid map 생성을 위한 Mobile robot의 효율적인 Exploration 알고리즘 개발 31
1. 거리 정보 기반의 탐사 및 위상 지도 생성 31
가. Skeleton 추출 31
나. 노드의 분류 33
다. 노드의 추출 35
라. Exploration 37
2. 물체 위치 지도 생성 및 간소화 41
가. Object database 41
나. 유사도의 측정 43
제3절 Feature Grid Map을 이용한 Vision-based Localization 45
1. 연구 배경 45
2. 특징점을 저장하기 위한 지도 표상 방법 비교 45
가. Grid Map 45
1) 2D Grid Map 45
2) 3D Voxel 46
나. kd-tree 46
3. Particle Filter에서 Feature Matching 47
4. 실험 결과 49
제4절 스테레오 카메라를 이용한 사용자 기반 실내 환경 지도 작성 50
1. 연구 배경 50
2. 로봇 시스템 및 시나리오 51
가. 로봇 시스템 51
나. 실험 환경 51
다. 시나리오 52
3. Visual Landmark 및 지도 표상 방법 53
가. Visual Landmark 53
나. 지도 표상 방법 53
다. U/R-Node 55
4. 사용자 안내 단계 55
가. 가상 버튼을 이용한 명령 전달 55
나. 얼굴 인식 및 사용자 따라가기 56
다. U-Node 등록 및 R-Node 선정 57
5. 로봇 자율 학습 단계 58
가. 노드간 상대 자세 보정 58
나. R-Node 재방문 및 혼합 지도 갱신 59
6. 결론 60
제5절 Multi-modal 기반의 Object modeling에 관한 연구 62
1. 연구 개요 62
2. Object modeling의 Process 62
가. Object Modeling의 Process 구분 62
나. On-Hand Mode의 세부 절차 63
1) 사용자의 위치 추정 63
2) 사용자의 손 검출 64
3) 등록 물체의 Segmentation 64
다/나. Pointing Mode의 세부 절차 65
1) 사용자와 지시하는 손의 위치 추정 65
2) Pointing Vector의 생성 66
3) ROI(Region Of Interest)의 결정 67
4) ROI에서 지시물체 추출 68
제6절 물체인식알고리즘 개발 69
1. Introduction 69
가. Overview 69
나. Relation to Phase II proposed work 69
2. Category Recognition 70
가. Overview 71
나. Affine correction 72
다. Additional features 75
라. Affinity estimation 76
마. Other algorithm modifications 78
바. Examples and discussion 79
3. Specific Object Recognition 82
가. Filtering and Cueing 84
1) Algorithm overview 84
2) Training performance and limitations 87
3) Selection of scanning windows 88
4) Selection of thresholds 94
나. Matching 98
1) Convergence issues 99
2) Scale issues 102
3) Analysis of scoring and density of features 103
4. Other activities 105
제7절 범주 인식 기반 문 인식 알고리즘 개발 107
1. 알고리즘 개요 107
2. 알고리즘 설명 107
가. 문 후보군 검지 107
나. 문 검지 108
3. 연구 성과 109
가. 문후보군 검지 결과 109
나. 문 검지 결과 109
제3장 결과 및 향후계획 110
제1절 2단계 목표 및 연구 달성도 110
제2절 연구 개발 성과 목록 112
1. 논문 개제 112
2. 산업재산권 112
3. 학술회의 발표 113
제3절 연구 개발 성과의 실용화 전망 115
1. 연구 개발 성과의 실용화 115
가. 국내외 시장 현황 및 전망 115
1) 물체 중심의 지도 표상 및 전역위치 추정기 115
2) 3D Visual Feature 기반의 전역위치 추정 기술 115
나. 사업화로서의 활용가능성 115
2) 멀티모달 기반의 미지물체 자동 등록/학습 기술 115
3) 3D Visual Feature 기반의 전역위치 추정 기술 115
4) 로봇 플랫폼을 위한 스테레오 비전 기술 115
제4절 연구 개발 성과의 기대 효과 116
1. 연구 개발을 통하여 파생된 성과 및 파급효과 116
가. 기술적 파급 효과 116
1) 물체 중심의 지도 표상 및 전역위치 추정기 116
2) 멀티모달 기반의 미지물체 자동 등록/학습 기술 116
3) 3D Visual Feature 기반의 전역위치 추정 기술 116
4) 로봇 플랫폼을 위한 스테레오 비전 기술 116
나. 산업적 파급효과 116
3) 3D Visual Feature 기반의 전역위치 추정 기술 117
4) 로봇 플랫폼을 위한 스테레오 비전 기술 117
제4장 참고문헌 118
표 1. Coordinates of the cluster centers shown in Figure 69 90
그림 1. 수평 거리 정보 수집 및 수평 거리 지도 21
그림 2. 물체 위치 치도의 예 22
그림 3. 전역적 위상 지도의 예 23
그림 4. 로봇이 인식한 물체의 point cloud 25
그림 5. 후보 node에 포함된 물체의 point cloud 25
그림 6. Point cloud fitting 25
그림 7. 획득한 laser data(a), laser data로부터 생성한 폐영역(b) 32
그림 8. 폐영역의 이진 영상(a), 폐영역의 채움 영상(b) 32
그림 9. 세선화를 거친 결과 영상 33
그림 10. Concave node의 예시 34
그림 11. Branch node(아래쪽 원)와 End node(위쪽 원) 34
그림 12. (a) End node, (b) Branch node, (c) Arc 35
그림 13. Skeleton 영상에서 branch node를 추출한 결과 36
그림 14. Branch node 검색에서 발생하는 문제점 36
그림 15. Robot의 이동이 불가능한 branch node의 필터링 37
그림 16. Final branch node를 표시한 topology 37
그림 17. First child node의 정의 38
그림 18. First child node의 검색(1) 38
그림 19. First child node 검색(2) 39
그림 20. First child node 검색(3) 40
그림 21. Concave node 41
그림 22. 물체 모델의 구성 (a)mask 영상 (b)물체의 특징점 정보 42
그림 23. 다양한 각도와 거리에서 촬영한 물체 모델 42
그림 24. 순서도 44
그림 25. 지도 표상을 위한 데이터 구조들 47
그림 26. map으로부터 sample view를 만드는 방법 47
그림 27. 지도 좌표계에서 로봇 좌표계로의 변환 48
그림 28. 로봇 좌표계에서 지도 좌표계로의 변환 48
그림 29. D Feature Grid Map을 이용한 Vision-based Localization 실험결과 49
그림 30. 본 연구에서 사용된 이동 로봇 51
그림 31. ㅁ자 모양의 복도 환경 모습 52
그림 32. 혼합 지도(Hybrid Map)의 예 54
그림 33. 가상 버튼을 통한 명령 전달 56
그림 34. 좌상 : 입력 영상, 좌하 : 입력 상이도 영상, 우상 : 인식된 얼굴, 우하 : 얼굴 및 배경과 분리된 사용자 상이도 영상 56
그림 35. ㅁ자 모양의 복도 환경에서 네 귀퉁이에 각각 U-Node를 지정하고 얻은 전방향 영상 57
그림 36. 사용자 안내 단계에서 얻은 전역적 위상지도 58
그림 37. 로봇 자율 학습 단계 후 갱신된 전역적 위상 지도 60
그림 38. 지시기반의 Control Block Diagram 62
그림 39. On-Hand Mode Process 63
그림 40. 입력 영상(좌)과 Color Back-projection 및 이진화결과(우) 64
그림 41. 등록 물체 Segmentation(좌)과 Disparity Map(우) 64
그림 42. Pointing Mode 개념도 65
그림 43. 얼굴과 손 검출 Process별 결과 화면 66
그림 44. Pointing Vector 개요도 66
그림 45. 카메라 좌표계에서 포인팅 좌표계로 변환 67
그림 46. Distance Slicing Process 67
그림 47. Window내의 Point Cloud 밀도 계산 68
그림 48. Context Filtering의 세부 과정 68
그림 49. Run-time matching(left) and learning phase(right) 72
그림 50. Category recognition results of the previous algorithm. 72
그림 51. Block diagram of the proposed affine learning algorithm. 74
그림 52. Transformation of the raw training examples (top rows) to a common affine reference frame (bottom rows). 74
그림 53. Definition and estimation of the curvature features 76
그림 54. New curvature image. 76
그림 55. Vector of features used in defining the affinity 78
그림 56. Example detections (matched contours are shown in green). 80
그림 57. Example detections (matched contours are shown in green) 80
그림 58. Comparison of baseline performance with modified algorithms on the new dataset 81
그림 59. Experimental results on new data (include a range of scale from small to large objects) : wallclock, tv. refrigerator and mugcup. 81
그림 60. Example detections, including one false positive. 82
그림 61. Example detections, including one false positive. 82
그림 62. Using integral images to estimate histograms over windows. 85
그림 63. The filtering can operate in two different modes. The multi-class version is slower to train but has better accuracy 86
그림 64. Percentage of non-object pixels retained after filtering for each of the object classes. This can be interpreted as the pixel-wise false positive rate. 86
그림 65. Percentage of on-object pixels correctly retained after filtering. This can be interpreted as the pixel-wise rate of true detection. A few objects are over-filtered, as indicated by the arrows. These cases could be identified automatically on a validation set... 87
그림 66. Performance of the SVM classifier one the training data. The score of the classifier is shown for each class in a confusion matrix format. 88
그림 67. Distribution of the horizontal and vertical sizes of the bounding boxes over all the object types (10 in this example) over the entire training data (the sizes are in pixels). 89
그림 68. Distributions of the bounding box sizes for two example object types (TV and can) (the sizes are in pixels). 90
그림 69. Cluster centers obtained by applying K-means to the distributions of bounding box sizes from Figure 64 (K=6). 91
그림 70. Example of mapping an instance of a bounding box to the closest cluster center estimated from the entire training data. The mapping is shown on two boxes (obtained by 2-means over the examples bounding boxes from each object) from two object types.The box shapes are shown as red rectagles. 92
그림 71. For efficiency, the image is scanned at discrete locations separated by a step size Ω(이미지참조)=(rows*0.15)/2=18. 93
그림 72. Example filtering outputs before (left) and after (right) automatic selection of windows and increased scanning rate. 94
그림 73. Example filtering outputs before (left) and after (right) automatic selection of windows and increased scanning rate. 94
그림 74. The thresholds are automatically selected by computing the cumulative distribution of scores from the SVM classifier on windows from the ground truth data. 95
그림 75. Left : Example histograms of scores for four object types. The blue histogram shows the scores computed at the "positive" locations, i.e., at pixels that belong to the object. Right : Corresponding cumulative distributions.... 97
그림 76. Left : Example histograms of scores for four object types. The blue histogram shows the scores computed at the "positive" locations, i.e., at pixels that belong to the object. Right : Corresponding cumulative distributions.... 98
그림 77. Convergence rate (relative difference |V|/|V|(이미지참조) vs. iteration number) for a typical recognition example. 100
그림 78. Value of the coordinate-wise ratio Mv/v (vertical axis) vs. the entries of the dominant vector after a finite number of iterations of the power methods. 101
그림 79. Left : Entries of the dominant vector of the affinity matrix after the iterations are stopped at the pre-set maximum number of iterations. Right : Entries of the dominant vector after filtering by the ratio test. 102
그림 80. Features matched by the recognition algorithm "cn" object. The features are indicated by black circles. Without filtering (left), an extra erroneous correspondence is found. That correspondence is eliminated after filtering of the dominant vector. 102
그림 81. Scale focus approach : The correspondences from the highest-ranked entries in the dominant vector are used to estimate the scale change between the model and the scene. The search for additional correspondences is limited in a region defined by that scale change. 103
그림 82. Example of detection outputs with the corresponding scores. The incorrect detection are marked by a red cross. 104
그림 83. Example of detection outputs with the corresponding scores. The incorrect detection are marked by a red cross. 104
그림 84. Correct detections with their scores (bottom) and incorrect detections due to occlusions (top). 105
그림 85. Illustration of the effect of occlusion and of salient parts of the object 105
그림 86. (a) The door (b) The doorknob 107
그림 87. 연구의 개요 107
그림 88. Guessing Door 알고리즘 과정 108
그림 89. Finding Door 알고리즘 과정 108
이용현황보기
원문구축 및 2018년 이후 자료는 524호에서 직접 열람하십시요.
도서위치안내: / 서가번호:
우편복사 목록담기를 완료하였습니다.
* 표시는 필수사항 입니다.
* 주의: 국회도서관 이용자 모두에게 공유서재로 서비스 됩니다.
저장 되었습니다.
로그인을 하시려면 아이디와 비밀번호를 입력해주세요. 모바일 간편 열람증으로 입실한 경우 회원가입을 해야합니다.
공용 PC이므로 한번 더 로그인 해 주시기 바랍니다.
아이디 또는 비밀번호를 확인해주세요