생몰정보
소속
직위
직업
활동분야
주기
서지
국회도서관 서비스 이용에 대한 안내를 해드립니다.
검색결과 (전체 1건)
원문 있는 자료 (1) 열기
원문 아이콘이 없는 경우 국회도서관 방문 시 책자로 이용 가능
목차보기더보기
표제지
인사말씀 / 최문기
제출문
요약문
SUMMARY
CONTENTS
목차
제1장 서론 33
제1절 연구의 목적 및 필요성 35
제2절 연구의 목표 및 결과 35
제3절 보고서 체계 39
제2장 물리 URS 기술 41
제1절 물리 URS 기술 43
1. URS 측위망 43
2. URS 미들웨어 63
3. USN 연동 스마트 액션 71
제2절 다중 시점 카메라 시스템 기술 82
1. 다중 시점 카메라 시스템 개발 82
2. 다중 시점 카메라 시스템의 구성 82
3. 다중 시점 카메라의 구성 83
4. 다중 시점 카메라 제어기 85
5. 호스트용 다중 시점 카메라 시스템 제어 프로그램 및 SDK 87
제3장 시맨틱 URS 기술 93
제1절 저전력 이동성 지원 센서 네트워크 시스템 u-Clips 95
1. u-Clips 시스템 개요 95
2. 이동성 지원 프로토콜 98
3. 저전력 프로토콜 102
4. 응용 시스템 인터페이스 105
제2절 상황 기반 서비스 제어 시스템 CASA 107
1. 시스템 개요 107
2. CASA의 지식베이스 111
3. 컨텍스트 해석 114
4. 상황기반 서비스 결정 116
제4장 가상 URS 기술 119
제1절 서론 121
1. 가상 URS 개념 121
2. 연구 방향 및 범위 121
제2절 실내 공간 모델링 124
1. 실내공간 기하구조 모델링 124
2. 실내공간 센서 모델링 130
제3절 가상 URS 서비스 133
1. 네트워크 기반 Human-Robot Interaction 133
2. Sensor-Responsive 가상 URS 136
3. 로봇 서비스의 Simulation/Planning 137
제4절 결론 140
제5장 URS 서비스 기술 143
제1절 URS 로봇 서비스의 구성 145
1. URS 통합 서버 구축 145
2. 로봇용 Security Application 개발 145
3. 로봇용 청소 Application 개발 145
제2절 URS 통합 서버 구성 145
1. 시스템 구성도 145
2. 소프트웨어 구성도 146
3. 서버 기능도 146
제3절 사용자 시나리오 147
1. Security Application 147
2. 청소 Application 149
제4절 사용자 인터페이스 151
1. URS 통합 서버 사용자 인터페이스 151
2. HSDPA 휴대폰 사용자 인터페이스 153
제6장 결론 155
참고문헌 159
부록 165
부록 1. 약어 167
(표 2-1) RLS_BasicObject 클래스 45
(표 2-2) RLS_LocalizationObject 클래스 46
(표 2-3) RLS_LocationAggregator 클래스 46
(표 2-4) RLS_Sensor 클래스 47
(표 2-5) RLS_SensorInfo 데이터 구조 48
(표 2-6) RLS_Location 데이터 요소와 기능 49
(표 2-7) RLS_PrimitvieSsensorData 데이터 요소 50
(표 2-8) RLS_PosQuality 데이터 요소 50
(표 2-9) StarLITE 위치인식 센서 디텍터의 상세 사양 57
(표 2-10) StarLITE 위치인식 센서 태그의 상세 사양 58
(표 2-11) URS 관리서버 세부 기능 64
(표 2-12) 메시지 데이터 구조 67
(표 2-13) 메시지 구조 필드 스펙 67
(표 2-14) URS 메시지 ID 67
(표 2-15) UM_SERVER_MANAGE 메시지 68
(표 2-16) UM_ROBOT_DATA 메시지 69
(표 2-17) UM_ROBOT_CONTROL 메시지 69
(표 2-18) UM_EVENT 메시지 70
(표 3-1) 센서 노드의 상태에 따른 전류 소비량 102
(표 3-2) CASA 지식베이스 발췌 내용의 의미 114
(표 4-1) 3D 모델링 정확도 평가 130
(표 4-2) 실내공간 기하구조 추출 처리 시간 (5.5m × 4.5 m 공간) 130
(표 4-3) 모바일 폰에서의 3D 인터랙션 및 렌더링 시간 135
(그림 1-1) URS 개념도 36
(그림 2-1) Robotic Localization Service Framework 개략도 43
(그림 2-2) Robotic localization service framework의 UML 다이어그램 44
(그림 2-3) RLS_BasicObject, RLS_LocalizationObject, RLS_LocationAggregator의 UML 다이어그램 45
(그림 2-4) RLS_Sensor 클래스의 UML 다이어그램 47
(그림 2-4) RLS_Location UML 다이어그램 49
(그림 2-5) Robotic Localization Service Framework 테스트 51
(그림 2-6) LocationAggregator 테스트 52
(그림 2-7) StarLITE 위치인식 센서의 태그 53
(그림 2-8) StarLITE 위치인식 센서의 디텍터 54
(그림 2-9) StarLITE 위치인식 센서의 구조 54
(그림 2-10) StarLITE 디텍터의 영상과 IR Filter를 거친 영상 55
(그림 2-11) StarLITE 위치인식 센서의 동작 55
(그림 2-12) StarLITE에서 사용하는 좌표계 56
(그림 2-13) StarLITE 위치인식 센서의 성능 사양 57
(그림 2-14) 무선네트워크에서 이동 노드의 위치(x, y) 결정 59
(그림 2-15) 신호감쇄모델을 이동 노드의 위치(x, y) 결정에 사용 60
(그림 2-16) ZigBee 센서네트워크의 비콘 노드와 기준/이동 노드 60
(그림 2-17) ZigBee 센서네트워크 기반의 측위 시스템의 동작 과정 61
(그림 2-18) WLAN의 비콘 노드와 기준/이동 노드 61
(그림 2-19) WLAN 기반의 측위 시스템의 동작 과정 62
(그림 2-20) URS 서버 시스템 구성도 63
(그림 2-21) ROMI 플랫폼 H/W 71
(그림 2-22) ROMI 플랫폼 S/W 구성도 73
(그림 2-23) 사용자용 GUI 및 휴대폰 UI 74
(그림 2-24) URS 공간 구성도 76
(그림 2-25) Zone-to-zone 네비게이션 개념도 78
(그림 2-26) 격자맵 포맷 79
(그림 2-27) URS 공간맵 구성 80
(그림 2-28) Zone 전환 메카니즘 81
(그림 2-29) 시스템 구성도 82
(그림 2-30) 다중 시점 카메라 정면 및 윗면 83
(그림 2-31) 다중 시점 카메라 도킹부 및 내부모듈 83
(그림 2-32) 다중 시점 카메라 센서 모듈 사양 84
(그림 2-33) 다중 시점 카메라 센서 렌즈 사양 84
(그림 2-34) 다중 시점 카메라 센서 모듈 사진 84
(그림 2-35) 다중 시점 카메라 제어기 H/W구성도 85
(그림 2-36) 다중 시점 카메라 제어기 사진 86
(그림 2-37) 가변형 통신 프로토콜 87
(그림 2-38) 호스트용 다중 시점 카메라 시스템 프로그램 제어/연결 옵션 88
(그림 2-39) 호스트용 다중 시점 카메라 시스템 프로그램 인터페이스 89
(그림 2-40) 다중 시점 카메라 시스템으로부터 취득된 실시간 파노라믹 영상 89
(그림 2-41) 파노라마 영상 기반 이동체 감지/추적 90
(그림 2-42) USB 드라이버 설치 과정 91
(그림 3-1) 이동성 지원 센서 네트워크 시스템 (u-CLips) 구조 96
(그림 3-2) 네트워크 재합류 프로시져 시퀀스 다이어그램 98
(그림 3-3) 네트워크 재합류 프로시져 시퀀스 다이어그램(자식 노드) 99
(그림 3-4) 네트워크 재합류 프로시져 시퀀스 다이어그램(부모 노드) 99
(그림 3-5) 듀티 싸이클 관리 103
(그림 3-6) u-Clips 응용 인터페이스 메시징 구조 105
(그림 3-7) u-Clips 응용 프로그래밍 모델 106
(그림 3-8) CASA의 기능 얼개 109
(그림 3-9) CASA의 구조 110
(그림 3-10) CASA 장치 프로파일 스키마 구조 112
(그림 3-11) CASA 지식베이스 간 상호 연관성 112
(그림 3-12) CASA 지식베이스 인스턴스 113
(그림 3-13) 컨텍스트 계층 구조 115
(그림 3-14) 컨텍스트 해석망의 예 116
(그림 4-1) 가상 URS 개념도 121
(그림 4-2) 가상 URS 연구 방향 및 범위 122
(그림 4-3) 실내공간 기하구조 모델링 핵심 기술 122
(그림 4-4) 실내공간의 센서 네트워크 모델링 122
(그림 4-5) 실내공간 모델링 처리 순서도 125
(그림 4-6) 실내공간 기하구조 모델링 방법 개요 126
(그림 4-7) 실내공간 모델링 세부 알고리즘 126
(그림 4-8) 2차원/3차원 환경맵 제작을 위한 하드웨어 구성 (1차버젼) 127
(그림 4-9) 2차원/3차원 환경맵 제작을 위한 하드웨어 구성 (2차버젼) 128
(그림 4-10) 두 대의 레이저 스캐너 및 카메라간의 캘리브레이션 128
(그림 4-11) 3차원 모델링 과정 129
(그림 4-12) 실내공간의 Corridor 모델링 129
(그림 4-13) 실내공간의 2D 및 3D 모델 129
(그림 4-14) 센서 XML 모델 파일 예 131
(그림 4-15) 물리 URS 상의 센서 자동 검출 및 자동 XML 모델링 131
(그림 4-16) 물리 센서의 위치 지정 및 XML 파일 생성 132
(그림 4-17) 물리 URS 상의 센서 모델링 전체 흐름도 132
(그림 4-18) 가상 URS 상에 가상 센서 설치 133
(그림 4-19) 네트워크 기반 가상 URS 서비스 133
(그림 4-20) 가상 URS 기반 Tele-Presence 134
(그림 4-21) SVG/VRML 기반 2D/3D 가상 URS 서비스 134
(그림 4-22) 모바일 폰에서 SVG 기반 2D 가상 URS 서비스 135
(그림 4-23) 모바일 폰에서 VRML 기반 3D 가상 URS 서비스 135
(그림 4-24) Sensor-Responsive 가상 URS 서비스 136
(그림 4-25) 물리 URS 와 가상 URS 연동 데모 시나리오 136
(그림 4-26) 물리 URS 로봇과 가상 URS 연동 데모 137
(그림 4-27) 가상 URS 기반 시뮬레이션 시스템 구성도 138
(그림 4-28) 가상 URS 기반 시뮬레이션 처리도 138
(그림 4-29) 시뮬레이션 입력 및 출력 파라미터 139
(그림 4-30) 시뮬레이션 GUI 구현 139
(그림 4-31) 가상 URS 주요 기술 140
(그림 4-32) 웹 기반 가상 URS 서비스 구성도 141
(그림 5-1) 시스템 구성도 146
(그림 5-2) 소프트웨어 구성도 146
(그림 5-3) 소프트웨어 기능도 147
(그림 5-4) 자동 모니터링 흐름도 147
(그림 5-5) 수동 모니터링 흐름도 148
(그림 5-6) 청소로봇 시제품 150
(그림 5-7) 로그인 화면 151
(그림 5-8) 사용자 리스트 및 상세 화면 152
(그림 5-9) MAP 관리 화면 152
(그림 5-10) 로봇 영상보기 및 원격제어 화면 153
(그림 5-11) 인트로 및 메인 화면 153
(그림 5-12) 선택 화면 154
(그림 5-13) 로봇 영상보기 및 원격제어 화면 154
이용현황보기
원문구축 및 2018년 이후 자료는 524호에서 직접 열람하십시요.
도서위치안내: / 서가번호:
우편복사 목록담기를 완료하였습니다.
* 표시는 필수사항 입니다.
* 주의: 국회도서관 이용자 모두에게 공유서재로 서비스 됩니다.
저장 되었습니다.
로그인을 하시려면 아이디와 비밀번호를 입력해주세요. 모바일 간편 열람증으로 입실한 경우 회원가입을 해야합니다.
공용 PC이므로 한번 더 로그인 해 주시기 바랍니다.
아이디 또는 비밀번호를 확인해주세요