본문 바로가기 주메뉴 바로가기
국회도서관 홈으로 정보검색 소장정보 검색

결과 내 검색

동의어 포함

목차보기

표제지

요약

목차

기호설명 10

I. 서론 12

1. 연구 배경 및 관련 연구 12

2. 연구 목표 13

II. 시스템 구성 15

1. 하드웨어 시스템 구성 15

1) 기구 시스템 구성 15

2) 하드웨어 인터페이스 구성 16

2. 소프트웨어 시스템 구성 18

1) 시스템 통합 프레임워크 구성 18

2) 소프트웨어 인터페이스 구성 19

3) 통합 GUI 환경 구성 20

3. 메카넘 휠 플랫폼 시스템 모델링 21

III. 동시적 위치 추정 및 지도 작성 (SLAM) 25

1. 추측 항법 (Dead Reckoning) 25

2. 트래킹 카메라를 이용한 위치 추정 방법 27

3. 위치 오차 추가 보정 방법 29

1) 적응 상보 필터 (Adaptive Complementary Filter) 29

2) Adaptive Monte Carlo Localization (AMCL) 31

4. 실시간 2D 지도 작성 32

1) 개요 32

2) 2D Lidar 병합 작업 32

3) 2D 지도 작성 패키지 (Cartographer) 33

5. 적용 결과 35

1) 위치 추정 알고리즘 35

2) 2D 지도 작성 38

IV. 로봇 플랫폼 제어 알고리즘 39

1. 목표 속도 추종 제어 방법 39

1) 플랫폼 시스템 모델 기반 제어 39

2) 플랫폼 주행기록계 기반 피드백 제어 40

3) 알고리즘 결합 40

2. 로봇 팔 제어 방법 및 활용 방안 42

1) 로봇 팔 제어 방법 42

2) 활용 방안 43

3. 적용 결과 44

1) 목표 속도 추종 제어 44

2) 로봇 팔 제어 46

V. 자율 주행 알고리즘 48

1. 자율 주행 알고리즘 48

1) BT Navigator Server 49

2) Planner Server 50

3) Controller Server 50

4) Recovery Server 51

5) Costmap Client 51

6) AMCL 51

7) Map Server 51

2. 3D 객체 인식 알고리즘 및 활용 방안 52

1) 개요 52

2) 알고리즘 설명 53

3) 알고리즘 구현 54

4) Point Cloud Publisher 54

5) Object Detector 56

4) 활용 방안 58

3. 패턴 주행 경로 생성 알고리즘 59

4. 적용 결과 60

1) 자율 주행 알고리즘 60

2) 3D 객체 인식 61

3) 패턴 주행 경로 생성 62

VI. 실험 결과 및 분석 63

1. 개요 63

2. 웨이포인트 자율 주행 시나리오 설명 63

3. 패턴 자율 주행 시나리오 설명 65

4. 동적 장애물 인식 및 대응 시나리오 설명 67

5. 로봇 팔 제어 시나리오 설명 69

6. 시나리오별 동작 수행 결과 71

1) 웨이포인트 자율 주행 71

2) 패턴 자율 주행 72

3) 동적 장애물 인식 및 대응 73

4) 로봇 팔 제어 75

VII. 결론 76

참고문헌 78

Abstract 81

표목차

Table 2.1. Specification of Robot Platform Model 15

Table 2.2. Hardware Device and Role of Robot Platform 16

Table 2.3. Sensors & Actuators for Main Algorithms 17

Table 2.4. Controllers for Main Algorithms 17

Table 2.5. Period of Each Algorithms in Robot Software Interface 19

Table 3.1. Pros and Cons of Dead Reckoning & VIO 29

Table 3.2. Result of Straight Lane Driving 36

Table 3.3. Result of Rotational Driving 37

Table 4.1. Comparison of Two Platform Control Algorithms 41

Table 4.2. Control Parameters of Robot Platform 44

Table 4.3. The Result of Velocity Error 44

Table 4.4. Result of Experiment for Robot Arm 46

Table 5.1. Result of 3D Object Detection Experiment 61

Table 6.1. Result of Waypoint Autonomous Driving 72

Table 6.2. Result of Pattern Autonomous Driving 73

Table 6.3. Result of Dynamic Obstacle Detection 74

Table 6.4. Result of Operating Elevator Button using Robot Arm 75

그림목차

Fig. 2.1. Hardware Interface Block Diagram of Robot Platform 16

Fig. 2.2. Software Interface Block Diagram 19

Fig. 2.3. Graphical User Interface of Robot Platform 20

Fig. 2.4. Analytical Model of Single Mecanum Wheel 21

Fig. 2.5. Analytical Model of Mecanum Wheel Platform 22

Fig. 3.1. Split Velocity Vector into Reference Coordinate Units 25

Fig. 3.2. Dead Reckoning Process of Robot Platform 26

Fig. 3.3. Intel Realsense T265 Camera (Left) and Fish eye Cameras (Right) 27

Fig. 3.4. Odometry Estimation using T265 Camera 28

Fig. 3.5. 2D Lidar Sensors Attached to the Robot Platform 32

Fig. 3.6. Merging Algorithm of Multiple 2D Lidar Scan Data 33

Fig. 3.7. 2D Mapping Process Using Cartographer Package 34

Fig. 3.8. Straight Lane Driving for Localization Result 35

Fig. 3.9. Rotational Driving for Localization Result 35

Fig. 3.10. Result of Straight Lane Driving 36

Fig. 3.11. Result of Rotational Driving 37

Fig. 3.12. Result of 2D Mapping using 2D Lidar Sensor 38

Fig. 4.1. Block Diagram of System Model based Control 39

Fig. 4.2. Block Diagram of Platform Velocity Feedback based Control 40

Fig. 4.3. Block Diagram of Merged Control System 41

Fig. 4.4. The Robot Arm Attached to Robot Platform 42

Fig. 4.5. The Result of x, y Axis Velocity Error in Model Based Control 45

Fig. 4.6. The Result of Yaw Angular Velocity Error in Model Based Control 45

Fig. 4.7. The Result of x, y Axis Velocity Error in Merged Control 45

Fig. 4.8. The Result of Yaw Angular Velocity Error in Merged Control 45

Fig. 4.9. Description of Experiment for Robot Arm 46

Fig. 4.10. Result of Experiment for Robot Arm 47

Fig. 5.1. Block Diagram of Navigation 2 Package on Robot Platform 48

Fig. 5.2. Block Diagram of Platform Behavior Tree Structure 49

Fig. 5.3. Limitation of 2D Lidar Sensor in Autonomous Driving 52

Fig. 5.4. Image Process Block Diagram of 3D Object Detection Algorithm 53

Fig. 5.5. Output from Depth Camera (Left: RGB Image, Right: Depth Image) 54

Fig. 5.6. Inverse Projection of Depth Camera 55

Fig. 5.7. Result of Inverse Projection Algorithm (3D Point Cloud) 55

Fig. 5.8. Output Data Structure in Point Cloud Publisher Node 56

Fig. 5.9. Result of RGB Object Detection 57

Fig. 5.10. Result of Clustering Point Cloud Data in Bounding Box 57

Fig. 5.11. Result of Executing Object Detector Node 58

Fig. 5.12. Process of Creating Pattern Driving Path in Selected Area 59

Fig. 5.13. Process of Autonomous Driving on Robot Platform 60

Fig. 5.14. Description of 3D Object Detection Experiment 61

Fig. 5.15. Description of Creating Pattern Driving Path in GUI 62

Fig. 5.16. Result of Creating Pattern Driving Path in GUI 62

Fig. 6.1. System Block Diagram of Waypoint Autonomous Driving Scenario 64

Fig. 6.2. Flowchart of Waypoint Autonomous Driving Scenario 64

Fig. 6.3. System Block Diagram of Pattern Autonomous Driving Scenario 65

Fig. 6.4. Flowchart of Pattern Autonomous Driving Scenario 66

Fig. 6.5. System Block Diagram of Obstacle Avoidance Driving Scenario 67

Fig. 6.6. Flowchart of Obstacle Avoidance Driving Scenario 68

Fig. 6.7. System Block Diagram of Robot Arm Control Scenario 69

Fig. 6.8. Flowchart of Robot Arm Control Scenario 70

Fig. 6.9. Description of Waypoint Autonomous Driving 71

Fig. 6.10. Result of Waypoint Autonomous Driving 71

Fig. 6.11. Description of Pattern Autonomous Driving 72

Fig. 6.12. Result of Pattern Autonomous Driving 73

Fig. 6.13. Example of Dynamic Obstacle Detection 74

Fig. 6.14. Result of Dynamic Obstacle Detection 74

Fig. 6.15. Result of Operating Elevator Button using Robot Arm 75

초록보기

본 연구는 자율 주행 로봇에 필요한 위치 추정, 자율 주행 등 핵심 기능을 지닌 로봇 플랫폼 시스템을 제안한다. 이를 위해 동시적 위치 추정 및 지도 작성 기능의 구현, 플랫폼 제어 알고리즘의 구현, 자율 주행 기능의 구현, 시나리오 설정 및 구현의 4가지 연구 목표를 설정하고 이에 맞춰 개발을 진행하였다.

먼저 본 연구에서 채택한 메카넘 휠 플랫폼의 동적 시스템 모델에 대해 해석을 진행한 후, 이를 바탕으로 IMU 센서와 엔코더 센서를 결합하여 추측 항법을 진행하였다. 한편, 추측 항법에서 생길 수 있는 외란의 영향을 줄이기 위해 T265 트래킹 카메라를 추가 활용한 적응 상보 필터와 AMCL 알고리즘을 사용하여 보정하였다.

한편, 플랫폼 자율 주행 기능 구현을 위해 모델 기반 제어 방식과 피드백 기반 제어 방식을 결합한 속도 추종 제어를 구현하였으며, 복잡한 작업 수행을 위해 로봇 팔 제어 기능을 구현하였다. 그 후 오픈 소스 라이브러리인 Navigation 2를 활용하여 2D Lidar 기반 실내 자율 주행 기술을 구현하였다.

또한, Lidar 기반 환경 인지가 갖는 한계를 극복하기 위해 깊이 카메라를 사용하여 역 투사 기법과 CNN 기반 Detector를 결합한 3D 객체 인식 기술을 구현하였다. 객체 인식 기술은 실험 결과 약 7.6cm의 평균 위치 오차를 보이는 것을 확인하였다.

마지막으로 웨이포인트 주행, 패턴 주행, 장애물 인식, 로봇 팔 제어의 네 가지 시나리오를 설정하고 해당 작업을 수행하기 위해 구현한 기술들을 유기적으로 연결하였다. 실험 결과 일부 예외 상황을 제외하면 오동작 없이 정상적으로 시나리오에 맞게 작업을 수행하는 것을 확인하였다.

본 연구를 통해 기술적인 어려움에 부딪혀 실내 자율 주행 로봇을 개발하지 못하고 있는 많은 기업들에게 도움을 줄 수 있을 것으로 기대한다.