본문바로가기

자료 카테고리

전체 1
도서자료 1
학위논문 0
연속간행물·학술기사 0
멀티미디어 0
동영상 0
국회자료 0
특화자료 0

도서 앰블럼

전체 (1)
일반도서 (1)
E-BOOK (0)
고서 (0)
세미나자료 (0)
웹자료 (0)
전체 (0)
학위논문 (0)
전체 (0)
국내기사 (0)
국외기사 (0)
학술지·잡지 (0)
신문 (0)
전자저널 (0)
전체 (0)
오디오자료 (0)
전자매체 (0)
마이크로폼자료 (0)
지도/기타자료 (0)
전체 (0)
동영상자료 (0)
전체 (0)
외국법률번역DB (0)
국회회의록 (0)
국회의안정보 (0)
전체 (0)
표·그림DB (0)
지식공유 (0)

도서 앰블럼

전체 1
국내공공정책정보
국외공공정책정보
국회자료
전체 ()
정부기관 ()
지방자치단체 ()
공공기관 ()
싱크탱크 ()
국제기구 ()
전체 ()
정부기관 ()
의회기관 ()
싱크탱크 ()
국제기구 ()
전체 ()
국회의원정책자료 ()
입법기관자료 ()

검색결과

검색결과 (전체 1건)

검색결과제한

열기
자료명/저자사항
USN 기반 Ubiquitous robotic space 기술 개발 / 정보통신부 [편] 인기도
발행사항
[서울] : 정보통신부, 2008
청구기호
전자형태로만 열람가능함
자료실
전자자료
형태사항
xxx, 135 p. : 삽화, 사진 ; 26 cm
제어번호
MONO1200948320
주기사항
주관연구기관: 한국전자통신연구원
연구책임자: 유원필
원문
미리보기

목차보기더보기

표제지

인사말씀 / 최문기

제출문

요약문

SUMMARY

CONTENTS

목차

제1장 서론 33

제1절 연구의 목적 및 필요성 35

제2절 연구의 목표 및 결과 35

제3절 보고서 체계 39

제2장 물리 URS 기술 41

제1절 물리 URS 기술 43

1. URS 측위망 43

2. URS 미들웨어 63

3. USN 연동 스마트 액션 71

제2절 다중 시점 카메라 시스템 기술 82

1. 다중 시점 카메라 시스템 개발 82

2. 다중 시점 카메라 시스템의 구성 82

3. 다중 시점 카메라의 구성 83

4. 다중 시점 카메라 제어기 85

5. 호스트용 다중 시점 카메라 시스템 제어 프로그램 및 SDK 87

제3장 시맨틱 URS 기술 93

제1절 저전력 이동성 지원 센서 네트워크 시스템 u-Clips 95

1. u-Clips 시스템 개요 95

2. 이동성 지원 프로토콜 98

3. 저전력 프로토콜 102

4. 응용 시스템 인터페이스 105

제2절 상황 기반 서비스 제어 시스템 CASA 107

1. 시스템 개요 107

2. CASA의 지식베이스 111

3. 컨텍스트 해석 114

4. 상황기반 서비스 결정 116

제4장 가상 URS 기술 119

제1절 서론 121

1. 가상 URS 개념 121

2. 연구 방향 및 범위 121

제2절 실내 공간 모델링 124

1. 실내공간 기하구조 모델링 124

2. 실내공간 센서 모델링 130

제3절 가상 URS 서비스 133

1. 네트워크 기반 Human-Robot Interaction 133

2. Sensor-Responsive 가상 URS 136

3. 로봇 서비스의 Simulation/Planning 137

제4절 결론 140

제5장 URS 서비스 기술 143

제1절 URS 로봇 서비스의 구성 145

1. URS 통합 서버 구축 145

2. 로봇용 Security Application 개발 145

3. 로봇용 청소 Application 개발 145

제2절 URS 통합 서버 구성 145

1. 시스템 구성도 145

2. 소프트웨어 구성도 146

3. 서버 기능도 146

제3절 사용자 시나리오 147

1. Security Application 147

2. 청소 Application 149

제4절 사용자 인터페이스 151

1. URS 통합 서버 사용자 인터페이스 151

2. HSDPA 휴대폰 사용자 인터페이스 153

제6장 결론 155

참고문헌 159

부록 165

부록 1. 약어 167

(표 2-1) RLS_BasicObject 클래스 45

(표 2-2) RLS_LocalizationObject 클래스 46

(표 2-3) RLS_LocationAggregator 클래스 46

(표 2-4) RLS_Sensor 클래스 47

(표 2-5) RLS_SensorInfo 데이터 구조 48

(표 2-6) RLS_Location 데이터 요소와 기능 49

(표 2-7) RLS_PrimitvieSsensorData 데이터 요소 50

(표 2-8) RLS_PosQuality 데이터 요소 50

(표 2-9) StarLITE 위치인식 센서 디텍터의 상세 사양 57

(표 2-10) StarLITE 위치인식 센서 태그의 상세 사양 58

(표 2-11) URS 관리서버 세부 기능 64

(표 2-12) 메시지 데이터 구조 67

(표 2-13) 메시지 구조 필드 스펙 67

(표 2-14) URS 메시지 ID 67

(표 2-15) UM_SERVER_MANAGE 메시지 68

(표 2-16) UM_ROBOT_DATA 메시지 69

(표 2-17) UM_ROBOT_CONTROL 메시지 69

(표 2-18) UM_EVENT 메시지 70

(표 3-1) 센서 노드의 상태에 따른 전류 소비량 102

(표 3-2) CASA 지식베이스 발췌 내용의 의미 114

(표 4-1) 3D 모델링 정확도 평가 130

(표 4-2) 실내공간 기하구조 추출 처리 시간 (5.5m × 4.5 m 공간) 130

(표 4-3) 모바일 폰에서의 3D 인터랙션 및 렌더링 시간 135

(그림 1-1) URS 개념도 36

(그림 2-1) Robotic Localization Service Framework 개략도 43

(그림 2-2) Robotic localization service framework의 UML 다이어그램 44

(그림 2-3) RLS_BasicObject, RLS_LocalizationObject, RLS_LocationAggregator의 UML 다이어그램 45

(그림 2-4) RLS_Sensor 클래스의 UML 다이어그램 47

(그림 2-4) RLS_Location UML 다이어그램 49

(그림 2-5) Robotic Localization Service Framework 테스트 51

(그림 2-6) LocationAggregator 테스트 52

(그림 2-7) StarLITE 위치인식 센서의 태그 53

(그림 2-8) StarLITE 위치인식 센서의 디텍터 54

(그림 2-9) StarLITE 위치인식 센서의 구조 54

(그림 2-10) StarLITE 디텍터의 영상과 IR Filter를 거친 영상 55

(그림 2-11) StarLITE 위치인식 센서의 동작 55

(그림 2-12) StarLITE에서 사용하는 좌표계 56

(그림 2-13) StarLITE 위치인식 센서의 성능 사양 57

(그림 2-14) 무선네트워크에서 이동 노드의 위치(x, y) 결정 59

(그림 2-15) 신호감쇄모델을 이동 노드의 위치(x, y) 결정에 사용 60

(그림 2-16) ZigBee 센서네트워크의 비콘 노드와 기준/이동 노드 60

(그림 2-17) ZigBee 센서네트워크 기반의 측위 시스템의 동작 과정 61

(그림 2-18) WLAN의 비콘 노드와 기준/이동 노드 61

(그림 2-19) WLAN 기반의 측위 시스템의 동작 과정 62

(그림 2-20) URS 서버 시스템 구성도 63

(그림 2-21) ROMI 플랫폼 H/W 71

(그림 2-22) ROMI 플랫폼 S/W 구성도 73

(그림 2-23) 사용자용 GUI 및 휴대폰 UI 74

(그림 2-24) URS 공간 구성도 76

(그림 2-25) Zone-to-zone 네비게이션 개념도 78

(그림 2-26) 격자맵 포맷 79

(그림 2-27) URS 공간맵 구성 80

(그림 2-28) Zone 전환 메카니즘 81

(그림 2-29) 시스템 구성도 82

(그림 2-30) 다중 시점 카메라 정면 및 윗면 83

(그림 2-31) 다중 시점 카메라 도킹부 및 내부모듈 83

(그림 2-32) 다중 시점 카메라 센서 모듈 사양 84

(그림 2-33) 다중 시점 카메라 센서 렌즈 사양 84

(그림 2-34) 다중 시점 카메라 센서 모듈 사진 84

(그림 2-35) 다중 시점 카메라 제어기 H/W구성도 85

(그림 2-36) 다중 시점 카메라 제어기 사진 86

(그림 2-37) 가변형 통신 프로토콜 87

(그림 2-38) 호스트용 다중 시점 카메라 시스템 프로그램 제어/연결 옵션 88

(그림 2-39) 호스트용 다중 시점 카메라 시스템 프로그램 인터페이스 89

(그림 2-40) 다중 시점 카메라 시스템으로부터 취득된 실시간 파노라믹 영상 89

(그림 2-41) 파노라마 영상 기반 이동체 감지/추적 90

(그림 2-42) USB 드라이버 설치 과정 91

(그림 3-1) 이동성 지원 센서 네트워크 시스템 (u-CLips) 구조 96

(그림 3-2) 네트워크 재합류 프로시져 시퀀스 다이어그램 98

(그림 3-3) 네트워크 재합류 프로시져 시퀀스 다이어그램(자식 노드) 99

(그림 3-4) 네트워크 재합류 프로시져 시퀀스 다이어그램(부모 노드) 99

(그림 3-5) 듀티 싸이클 관리 103

(그림 3-6) u-Clips 응용 인터페이스 메시징 구조 105

(그림 3-7) u-Clips 응용 프로그래밍 모델 106

(그림 3-8) CASA의 기능 얼개 109

(그림 3-9) CASA의 구조 110

(그림 3-10) CASA 장치 프로파일 스키마 구조 112

(그림 3-11) CASA 지식베이스 간 상호 연관성 112

(그림 3-12) CASA 지식베이스 인스턴스 113

(그림 3-13) 컨텍스트 계층 구조 115

(그림 3-14) 컨텍스트 해석망의 예 116

(그림 4-1) 가상 URS 개념도 121

(그림 4-2) 가상 URS 연구 방향 및 범위 122

(그림 4-3) 실내공간 기하구조 모델링 핵심 기술 122

(그림 4-4) 실내공간의 센서 네트워크 모델링 122

(그림 4-5) 실내공간 모델링 처리 순서도 125

(그림 4-6) 실내공간 기하구조 모델링 방법 개요 126

(그림 4-7) 실내공간 모델링 세부 알고리즘 126

(그림 4-8) 2차원/3차원 환경맵 제작을 위한 하드웨어 구성 (1차버젼) 127

(그림 4-9) 2차원/3차원 환경맵 제작을 위한 하드웨어 구성 (2차버젼) 128

(그림 4-10) 두 대의 레이저 스캐너 및 카메라간의 캘리브레이션 128

(그림 4-11) 3차원 모델링 과정 129

(그림 4-12) 실내공간의 Corridor 모델링 129

(그림 4-13) 실내공간의 2D 및 3D 모델 129

(그림 4-14) 센서 XML 모델 파일 예 131

(그림 4-15) 물리 URS 상의 센서 자동 검출 및 자동 XML 모델링 131

(그림 4-16) 물리 센서의 위치 지정 및 XML 파일 생성 132

(그림 4-17) 물리 URS 상의 센서 모델링 전체 흐름도 132

(그림 4-18) 가상 URS 상에 가상 센서 설치 133

(그림 4-19) 네트워크 기반 가상 URS 서비스 133

(그림 4-20) 가상 URS 기반 Tele-Presence 134

(그림 4-21) SVG/VRML 기반 2D/3D 가상 URS 서비스 134

(그림 4-22) 모바일 폰에서 SVG 기반 2D 가상 URS 서비스 135

(그림 4-23) 모바일 폰에서 VRML 기반 3D 가상 URS 서비스 135

(그림 4-24) Sensor-Responsive 가상 URS 서비스 136

(그림 4-25) 물리 URS 와 가상 URS 연동 데모 시나리오 136

(그림 4-26) 물리 URS 로봇과 가상 URS 연동 데모 137

(그림 4-27) 가상 URS 기반 시뮬레이션 시스템 구성도 138

(그림 4-28) 가상 URS 기반 시뮬레이션 처리도 138

(그림 4-29) 시뮬레이션 입력 및 출력 파라미터 139

(그림 4-30) 시뮬레이션 GUI 구현 139

(그림 4-31) 가상 URS 주요 기술 140

(그림 4-32) 웹 기반 가상 URS 서비스 구성도 141

(그림 5-1) 시스템 구성도 146

(그림 5-2) 소프트웨어 구성도 146

(그림 5-3) 소프트웨어 기능도 147

(그림 5-4) 자동 모니터링 흐름도 147

(그림 5-5) 수동 모니터링 흐름도 148

(그림 5-6) 청소로봇 시제품 150

(그림 5-7) 로그인 화면 151

(그림 5-8) 사용자 리스트 및 상세 화면 152

(그림 5-9) MAP 관리 화면 152

(그림 5-10) 로봇 영상보기 및 원격제어 화면 153

(그림 5-11) 인트로 및 메인 화면 153

(그림 5-12) 선택 화면 154

(그림 5-13) 로봇 영상보기 및 원격제어 화면 154

이용현황보기

이용현황 테이블로 등록번호, 청구기호, 권별정보, 자료실, 이용여부로 구성 되어있습니다.
등록번호 청구기호 권별정보 자료실 이용여부
T000030047 전자형태로만 열람가능함 전자자료 이용불가

권호기사보기

권호기사 목록 테이블로 기사명, 저자명, 페이지, 원문, 기사목차 순으로 되어있습니다.
기사명 저자명 페이지 원문 기사목차
연속간행물 팝업 열기 연속간행물 팝업 열기