표제지
국문 초록
목차
1. 서론 11
1.1. 연구 배경 11
1.2. 기존 연구 13
1.2.1. 객체 인식 13
1.2.2. 6-D 자세 추정 15
1.3. 연구 목표 16
2. 객체 분할과 평면 추정을 활용한 자세 추정 17
2.1. Mask R-CNN을 활용한 개별 객체 인식 17
2.2. 겹침 처리 알고리즘 및 오검출 처리 19
2.3. 평면 추정과 주축 추정 22
2.4. 중심점 검출 26
3. DETR 기반 딥러닝을 활용한 자세 추정 27
3.1. 사전 정보 27
3.1.1. 트랜스포머 27
3.1.2. DETR 31
3.1.3. DETR 기반 6-D 자세 추정 36
3.2. RGB-D를 활용한 DETR 기반 6-D 자세 추정 38
3.2.1. 1-STAGE 딥러닝 모델 38
3.2.2. 매칭 비용함수와 손실함수 41
4. 실험 및 검증 43
4.1. 2-STAGE 방법 검증 43
4.1.1. 2-STAGE 방법 실험 환경 43
4.1.2. 객체 인식과 겹침 처리 알고리즘 평가 44
4.1.3. 평면 추정 알고리즘 비교 45
4.1.4. 2-STAGE 방법의 자세 추정 성능 평가 46
4.2. 1-STAGE 방법 검증 51
4.2.1. 1-STAGE 방법 실험 환경 51
4.2.2. 1-STAGE 방법의 자세 추정 성능 평가 52
4.3. 1-STAGE, 2-STAGE 방법의 성능 비교 57
5. 결론 60
참고문헌 62
Abstract 69
[표 4-1] 객체 인식과 겹침 처리 알고리즘 평가 결과 44
[표 4-2] 평면 추정 알고리즘의 파라미터 및 수행시간 45
[표 4-3] 평면 추정 알고리즘별 평균 포인트 수 45
[표 4-4] G-ICP와 2-STAGE 방법의 자세 추정 성능 정량평가 49
[표 4-5] 1-STAGE 방법의 자세 추정 성능 정량평가 55
[표 4-6] 1-STAGE, 2-STAGE 방법의 자세 추정 성능 정량평가 59
[그림 1-1] 객체의 특성에 따른 특징 차이 12
[그림 1-2] 빈피킹 작업을 위한 로봇 비전 기술 12
[그림 2-1] Mask R-CNN 학습을 위한 상단 객체 라벨링 17
[그림 2-2] Mask R-CNN에서 출력된 이진 마스크의 외곽선 18
[그림 2-3] 겹침 처리 알고리즘 결과 20
[그림 2-4] 겹침 처리 알고리즘 순서도 21
[그림 2-5] 평면 추정을 위한 인공신경망 24
[그림 2-6] 추정된 평면의 포인트 수 비교 25
[그림 2-7] 중심점 검출 과정 26
[그림 3-1] 트랜스포머 아키텍처와 어텐션 메커니즘 28
[그림 3-2] DETR과 DETR의 트랜스포머 아키텍처 33
[그림 3-3] Conditional DETR의 디코더 35
[그림 3-4] 3DETR 아키텍처와 쿼리 포인트 샘플링 35
[그림 3-5] DETR 기반 6-D 자세 추정 모델 37
[그림 3-6] 1-STAGE 딥러닝 모델 아키텍처 40
[그림 4-1] 2-STAGE 방법 실험 환경 43
[그림 4-2] 겹침 처리 알고리즘 실패 예시 44
[그림 4-3] PnP 알고리즘 사용을 위한 2-D, 3-D 대응점 설정 46
[그림 4-4] G-ICP 알고리즘을 이용한 3-D 모델의 정합 47
[그림 4-5] G-ICP와 2-STAGE 방법의 자세 추정 성능 정성평가 50
[그림 4-6] 1-STAGE 방법 실험 환경 51
[그림 4-7] 변형된 딥러닝 모델 아키텍처 53
[그림 4-8] 1-STAGE 방법의 자세 추정 성능 정성평가 56
[그림 4-9] RGB-D 카메라 성능에 따른 차이 58
[그림 4-10] 1-STAGE, 2-STAGE 방법의 자세 추정 성능 정성평가 59