본문 바로가기 주메뉴 바로가기
국회도서관 홈으로 정보검색 소장정보 검색

목차보기

목차 1

다목적 바퀴형 이동로봇 플랫폼 개발 및 영상기반 비정형 환경 자율주행 기술 연구 = Visual navigation in unstructured environments and the development of a multi-purpose mobile robot platform / 심현재 ; 김여호수아 ; 홍준기 ; 남승원 ; 김용희 ; 허재 ; 황환철 ; 김광기 1

Abstract 1

I. INTRODUCTION 1

II. MUETI-PURPOSE HARD硏ARE PLATFORM 3

III. SEGMENTATION-BASED VISION CONTROL 4

1. Semantic Image Segmentation 4

2. Direct Vision-based Control 4

IV. VISUAL NAVIGATION WITH DEPTH-COMBINED TERRAIN TRAVERSABILITY ANALYSIS 5

1. Outdoor Terrain Segmentation 5

2. Road Segmentation using Depth Point Cloud 6

3. Visual Navigation 6

V. EXPERIMENTAL RESULTS 7

1. Experimental Setup 7

2. Results 8

VI. CONCLUSION 9

REFERENCES 9

[저자소개] 10

권호기사

권호기사 목록 테이블로 기사명, 저자명, 페이지, 원문, 기사목차 순으로 되어있습니다.
기사명 저자명 페이지 원문 목차
군집 주행을 위한 최적화 기반 종방향 및 횡방향 모델 통합 경로 계획 = Optimization-based path planning with integrated longitudinal and lateral models for platooning 길기윤, 신종호, 이규만 p. 905-912

보기
다목적 바퀴형 이동로봇 플랫폼 개발 및 영상기반 비정형 환경 자율주행 기술 연구 = Visual navigation in unstructured environments and the development of a multi-purpose mobile robot platform 심현재, 김여호수아, 홍준기, 남승원, 김용희, 허재, 황환철, 김광기 p. 913-923

보기
도심 환경에서 GNSS 음영 지역 주변 항법성능 확보를 위한 RRT 기반 전역 경로 계획법 연구 = RRT-based path planning design for securing navigation performance in GNSS-challenged urban environments 이지연, 성상경 p. 924-929

보기
Infrared-based precision landing for an unmanned aerial vehicle = 무인항공기의 적외선 기반 정밀착륙 Kyrelloss Bottros, Hyeonjeong Heo, Kyuman Lee p. 930-936

보기
스마트 드론 스카우트를 활용한 안심 귀가 솔루션 = Safe return home solution using a smart drone scout 허현정, 이호준, 이규만 p. 937-944

보기
슬라이딩 모드 외란 관측기 기반 증분형 슬라이딩 모드 제어를 이용한 eVTOL항공기의 종축 자세 제어 = Longitudinal attitude control of eVTOL aircraft using incremental sliding mode control driven by sliding mode disturbance observer 신동준, 정회조, 김승균, 석진영 p. 945-953

보기
칼만 필터 기반의 영상 재선택 = Kalman filter–based image re-selection : handling collinear and high co-visibility situations in image retrieval–based visual localization : 영상 검색 기반 영상 측위에서 Collinear와 높은 Co-visibility 상황 처리 문기영, 김학일 p. 954-959

보기
EDTP = EDTP : 모바일 수집기를 이용한 무선 센서 네트워크의 에너지 밀도 기반 경로 계획 기법 : energy-density-based trajectory planning for wireless sensor networks with mobile collectors Hong-mei Wang, Heejung Byun, Zhao-dong Liu p. 960-964

보기
강화학습 기반 선형 피드백 제어기 이득 선택에서 안정적 학습을 위한 지속적 행동 = Consistent action for stable training in reinforcement learning–based gain tuning of linear feedback controller 변형조 p. 965-972

보기
차동 구동 로봇의 원격 주행을 위한 토크 벡터링 제어 = Torque vectoring control for remote-control driving of differential-drive mobile robots 문석기, 서동우, 강재영 p. 973-981

보기
2D 라이다 센서 및 파티클 필터를 이용한 농작물 운송용 4WD로봇의 근거리 객체 추종 주행 성능에 관한 연구 = A study on the close-range object following the performance of a 4WD crop transport robot using a 2D LiDAR sensor and particle filter 박은성, 이길수, 차영철, 김병훈 p. 982-988

보기
Study for the linearity improvement of GHz-band low noise amplifier = 24-GHz 저잡음 증폭기 선형성 향상에 대한 연구 Seok-Ho Noh, Jee-Youl Ryu p. 989-995

보기
가상 선분 정보를 활용한 레이더 추측 항법 기반 EKF-SLAM = Radar dead-reckoning based EKF-SLAM using virtual line segment 이민호, 서경욱, 황동윤, 송진우, Hoang-Viet Do p. 996-1003

보기
가상현실 기반 로봇 제어 시스템의 사용자 편의성 향상 = Enhancing user convenience in virtual reality-based robotic control systems : utilizing Catmull-rom splines, hand tracking technology, and eye tracking technology : 캣멀-롬 스플라인, 손 추적 기술 및 시선 추적 기술 활용 견채은, 유승남 p. 1004-1014

보기
강인한 시각관성계를 위한 프롬포트 기반 통합 영상복원 신경망 = Prompt-based all-in-one image restoration network for robust visual odometry 박철훈, 최현덕 p. 1015-1023

보기
카트 도립 진자 모델을 이용한 균형제어와 최적화 기반 전신 역동역학 제어를 통합한 4족 보행 알고리즘 = Quadruped walking algorithm integrating balance control using cart-inverted pendulum model and optimization-based whole-body inverse dynamics control 한규철, 김현석, 김정엽 p. 1024-1036

보기
GNSS 불가 및 복잡한 환경에서의 소형 드론을 위한 순환 버퍼 해시 기반 복셀 지도작성 및 자율비행 = Circular buffered hash based voxel mapping and autonomous flights for small-sized drones in GNSS-denied and cluttered environments 이다솔, 라진채 p. 1037-1042

보기

참고문헌 (30건) : 자료제공( 네이버학술정보 )

참고문헌 목록에 대한 테이블로 번호, 참고문헌, 국회도서관 소장유무로 구성되어 있습니다.
번호 참고문헌 국회도서관 소장유무
1 L. E. Parker, “Current state of the art in distributed autonomous mobile robotics,” Distributed Autonomous Robotic Systems, vol. 4, pp. 3–12, 2000. 미소장
2 B.-S. Kim, J. H. Choi, C. Lee, and S. Oh, “Development and control of an autonomous user-tracking golf caddie robot,” Journal of Institute of Control, Robotics, and Systems (in Korean), vol. 28, no. 2, pp. 102–108, 2022. 미소장
3 C. Kim, B. Kim, and B. Lee, “Structural safety evaluation of tracking driving golf caddy robot,” Proceedings of the Korean Society of Mechanical Engineers (KSME) Conference (in Korean), pp. 161–161, 2022. 미소장
4 M. Chghaf, S. Rodriguez, and A. E. Ouardi, “Camera, lidar and multi-modal slam systems for autonomous ground vehicles: a survey,” Journal of Intelligent & Robotic Systems, vol. 105, no. 1, p. 2, 2022. 미소장
5 J. S. Berrio, M. Shan, S. Worrall, and E. Nebot, “Camera-lidar integration: Probabilistic sensor fusion for semantic mapping,” IEEE Transactions on Intelligent Transportation Systems, vol. 23, no. 7, pp. 7637–7652, 2021. https://ieeexplore.ieee.org/abstract/document/4049251 미소장
6 C. Debeunne and D. Vivet, “A review of visual-lidar fusion based simultaneous localization and mapping,” Sensors, vol. 20, no. 7, p. 2068, 2020. 미소장
7 J. Cheng, L. Zhang, Q. Chen, X. Hu, and J. Cai, “A review of visual slam methods for autonomous driving vehicles,” Engineering Applications of Artificial Intelligence, vol. 114, p. 104992, 2022. 미소장
8 W. Lan, J. Dang, Y. Wang, and S. Wang, “Pedestrian detection based on yolo network model,” IEEE International Conference on Mechatronics and Automation (ICMA), pp. 1547–1551, 2018. 미소장
9 J. Tao, H. Wang, X. Zhang, X. Li, and H. Yang, “An object detection system based on yolo in traffic scene,” 6th International Conference on Computer Science and Network Technology (ICCSNT), pp. 315–319, 2017. 미소장
10 S. Shinde, A. Kothari, and V. Gupta, “Yolo based human action recognition and localization,” Procedia Computer Science, vol. 133, pp. 831–838, 2018. 미소장
11 O. Ronneberger, P. Fischer, and T. Brox, “U-Net: Convolutional networks for biomedical image segmentation,” Medical Image Computing and Computer-assisted Intervention–MICCAI 2015: 18th International Conference, Part III 18, Munich, Germany, pp. 234–241, Oct. 2015. 미소장
12 F. Milletari, N. Navab, and S.-A. Ahmadi, “V-Net: Fully convolutional neural networks for volumetric medical image segmentation,” Fourth International Conference on 3D Vision (3DV), pp. 565–571, 2016. 미소장
13 L.-C. Chen, G. Papandreou, I. Kokkinos, K. Murphy, and A. L. Yuille, “DeepLab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 40, no. 4, pp. 834–848, 2017. 미소장
14 J. Long, E. Shelhamer, and T. Darrell, “Fully convolutional networks for semantic segmentation,” Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 3431–3440, 2015. 미소장
15 H. Zhao, J. Shi, X. Qi, X. Wang, and J. Jia, “Pyramid scene parsing network,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017, pp. 2881–2890. 미소장
16 Z. Zhigang, L. Huan, D. Pengcheng, Z. Guangbing, W. Nan, and Z. Wei-Kun, “Vehicle target detection based on R-FCN,” Chinese Control and Decision Conference (CCDC), pp. 5739–5743, 2018. 미소장
17 D. K. Dewangan and S. P. Sahu, “Road detection using semantic segmentation-based convolutional neural network for intelligent vehicle system,” Data Engineering and Communication Technology: Proceedings of ICDECT 2020, pp. 629–637, 2020. 미소장
18 Y. Zhang, H. Chen, Y. He, M. Ye, X. Cai, and D. Zhang, “Road segmentation for all-day outdoor robot navigation,” Neurocomputing, vol. 314, pp. 316–325, 2018. 미소장
19 D. Wicker, M. M. Rizki, and L. A. Tamburino, “E-Net: Evolutionary neural network synthesis,” Neurocomputing, vol. 42, no. 1-4, pp. 171–196, 2002. 미소장
20 H. Zhao, X. Qi, X. Shen, J. Shi, and J. Jia, “ICNet for real-time semantic segmentation on high-resolution images,” Proceedings of the European Conference on Computer Vision (ECCV), pp. 405–420, 2018. 미소장
21 Q. Yan, S. Li, C. Liu, M. Liu, and Q. Chen, “Roboseg: Real-time semantic segmentation on computationally constrained robots,” IEEE Transactions on Systems, Man, and Cybernetics: Systems, vol.52, no.3, pp. 1567–1577, 2020. 미소장
22 J.-H. Kim and K-K. K. Kim, “Vision-based markerless robot-to-robot relative pose estimation using RGB-D data,” Journal of Institute of Control, Robotics, and Systems (in Korean), vol. 29, no. 10, pp. 495–503, 2023. 미소장
23 D. H. Dos Reis, D. Welfer, M. A. De Souza Leite Cuadros, and D. F. T. Gamarra, “Mobile robot navigation using an object recognition software with RGBD images and the YOLO algorithm,” Applied Artificial Intelligence, vol. 33, no. 14, pp. 1290–1305, 2019. 미소장
24 Z. Zhang and M. Sabuncu, “Generalized cross entropy loss for training deep neural networks with noisy labels,” Advances in Neural Information Processing Systems, vol. 31, 2018. 미소장
25 K. M. Dawson-Howe and D. Vernon, “Simple pinhole camera calibration,” International Journal of Imaging Systems and Technology, vol. 5, no. 1, pp. 1–6, 1994. 미소장
26 P. I Corke and S. A. Hutchinson, “A new hybrid image-based visual servo control scheme,” Proceedings of the 39th IEIE Conference on Decision and Control (Cat. No. 00CH37187), vol. 3. IEEE, 2000. pp. 2521–2526. 미소장
27 S. C. Yurtkulu, Y. H. Şahin, and G. Unal, “Semantic segmentation with extended DeepLabv3 architecture,” 27th Signal Processing and Communications Applications Conference (SIU), pp. 1–4, 2019. 미소장
28 T. Guan, D. Kothandaraman, R. Chandra, A. J. Sathyamoorthy, K. Weerakoon, and D. Manocha, “GA-Nav: Efficient terrain segmentation for robot navigation in unstructured outdoor environments,” IEEE Robotics and Automation Letters, vol. 7, no. 3, pp. 8138–8145, 2022. 미소장
29 U. Ruby and V. Yendapalli, “Binary cross entropy with deep learning technique for image classification,” Int. J. Adv. Trends Comput. Sci. Eng., vol. 9, no. 10, 2020. 미소장
30 M. Wigness, S. Eum, J. G. Rogers, D. Han, and H. Kwon, “A rugd dataset for autonomous navigation and visual perception in unstructured outdoor environments,” IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). IEEE, pp. 5000–5007, 2019. 미소장