표제지
국문초록
목차
제1장 서론 15
제1절 연구의 배경 및 필요성 15
제2절 연구의 목적 및 방법 20
1) 연구의 목적 20
2) 연구의 방법 21
제2장 이론적 배경과 선행 연구 22
제1절 스마트 축사의 연구 22
1) 스마트 팜의 정의 22
2) 스마트 축사의 개요 25
3) 동물 복지형 스마트 축산 29
4) 축산 분야의 핵심 이슈 31
5) 스마트 축산 기술 동향 32
6) 스마트 팜 표준 및 향후방향 34
7) 인공지능 기반 환경인지 생산기술 36
8) 스마트 축사 데이터의 활용 38
9) 한국형 스마트 축산 기술 개발 39
제2절 디지털 트윈의 연구 40
1) 디지털 트윈 개념 및 기술 40
2) 디지털 트윈 관련 기술 및 서비스 동향 43
3) 축산을 위한 디지털 트윈 기술 및 적용 46
제3절 스마트 축사 관련 인공지능의 연구 56
1) 인공지능과 머신러닝 56
2) 딥러닝 68
제3장 스마트 축사 디지털트윈 모델 및 인공지능 모델 설계 80
제1절 스마트 축사 디지털 트윈 모델 80
1) 제어 모델 80
제2절 축사 데이터를 활용한 인공지능 모델 설계 89
1) 스마트 축사 인공지능 시뮬레이션 시스템 89
2) 스마트 축사 복합 데이터의 순차적 인공지능 모델 학습 90
3) 스마트 축사 데이터의 관리 및 전처리 90
4) 한우 스마트 축사를 위한 인공지능 모델 104
5) 인공지능 모델 선정 및 적용 110
제4장 가축의 생육 데이터를 활용한 인공지능 모델의 구현 114
제1절 한우 스마트 축사 인공지능 학습 모델의 구현 및 테스트 114
1) 데이터 수집, 정제, 가공 114
2) 데이터 학습 117
3) 실험 결과 120
제2절 젖소 스마트 축사 인공지능 학습 모델의 구현 및 테스트 124
1) 데이터 수집, 정제, 가공 124
2) 데이터 학습 125
3) 실험 결과 129
제3절 연구의 성과 132
제5장 결론 133
참고문헌 136
ABSTRACT 141
[표 2-1] 농업과 ICT 융복합의 주요 유형 및 사례 24
[표 2-2] 스마트 축사의 구성 26
[표 2-3] 스마트 축사 장비의 종류 27
[표 2-4] 친환경 축산물 인증요건 30
[표 2-5] 머신러닝과 딥러닝의 차이 68
[표 3-1] 데이터 정보 요약 91
[표 3-2] 데이터 포맷 92
[표 3-3] 시나리오별 데이터 분포 93
[표 3-4] 데이터 포맷 94
[표 3-5] 라벨링 데이터의 구성 일부 94
[표 3-6] 이미지 라벨링 및 어노테이션 구조 96
[표 3-7] 이미지 정보에 따른 객체 구성 97
[표 3-8] 음성 데이터 97
[표 3-9] 원시 데이터의 구성 98
[표 3-10] 한우 데이터 수집 시나리오 100
[표 3-11] 개체 활동 영상 데이터의 특성 101
[표 3-12] 저작도구의 기능모듈 102
[표 3-13] 바운딩 박스 XML 데이터 구조 103
[표 3-14] 스마트축사 주요 구성요소 104
[표 3-15] 객체인식을 위한 인공지능 모델 성능 비교(Box AP) 106
[표 3-16] 객체인식을 위한 인공지능 모델 성능 비교(AP75) 106
[표 3-17] 활용 인공지능 모델 106
[표 3-18] R-CNN, Fast R-CNN, Faster R-CNN, Mask R-CNN 비교 108
[표 3-19] 라벨링 작업시 영상/이미지 행동 분류 방법 111
[표 4-1] Annotation Data 116
[표 4-2] BBOX를 위한 평가 결과 118
[표 4-3] 카데고리별 BBOX의 AP 119
[표 4-4] 관찰 그룹별 발성음의 음성 특성 120
[그림 1-1] ICT를 활용한 축산업 경쟁력 제고 15
[그림 1-2] 연도별 농가인구 규모 및 감소율 추이 16
[그림 1-3] 스마트 축사 구성도 18
[그림 2-1] 스마트 온실 구성도 23
[그림 2-2] 표준화 추진체계 35
[그림 2-3] 3차원 디지털 트윈의 개념 41
[그림 2-4] 기존 알고리즘과 인공지능 접근법의 차이 56
[그림 2-5] 머신러닝 구분 58
[그림 2-6] 선형 회귀 모델 60
[그림 2-7] 제품 구매 여부에 대한 의사결정 나무 60
[그림 2-8] SVM(Support Vector Machine) 61
[그림 2-9] k-NN(k-Nearest Neighbors) 62
[그림 2-10] 앙상블 모형의 기본 과정 63
[그림 2-11] 군집화의 원리와 군집 개수에 따른 결과 64
[그림 2-12] 차원의 저주 65
[그림 2-13] Confusion Matrix 67
[그림 2-14] 퍼셉트론 구조 70
[그림 2-15] 다층 퍼셉트론 구조 71
[그림 2-16] 미니 배치 72
[그림 2-17] 활성함수 73
[그림 2-18] Dropout 74
[그림 2-19] CNN구조 75
[그림 2-20] Convolution 76
[그림 2-21] Max Pooling 77
[그림 2-22] RNN의 기본 구조 78
[그림 2-23] LSTM 기본 구조 79
[그림 3-1] 기본 제어 모델 81
[그림 3-2] 디지털 트윈 기반 제어 개념 모델 82
[그림 3-3] 디지털 트윈 통합 제어 모델 84
[그림 3-4] IoT와 인공지능 적용 디지털 트윈 구현 모델 85
[그림 3-5] 한우 축사 ICT개념도 86
[그림 3-6] 한우 스마트 축사에 적용한 디지털 트윈 구현 모델 87
[그림 3-7] 스마트 축사 인공지능 시뮬레이션 시스템 89
[그림 3-8] 시뮬레이션 시스템의 시뮬레이션부 90
[그림 3-9] 순차적 인공지능 모델 학습 90
[그림 3-10] 데이터 구축 절차 98
[그림 3-11] 데이터의 획득 과정 99
[그림 3-12] Mask R-CNN 아키텍쳐 108
[그림 3-13] YOLO 모델의 Gride cells 표현 109
[그림 3-14] YOLO 모델의 B개 boundary boxes 예측 110
[그림 4-1] 가공된 이미지 115
[그림 4-2] 가공된 음성 데이터 116
[그림 4-3] 폴리곤 작업 결과물 117
[그림 4-4] Mask R-CNN 모델 118
[그림 4-5] CNN의 동작 119
[그림 4-6] 1차 테스트 결과 성능 평가 121
[그림 4-7] 2차 테스트 결과 성능 평가 121
[그림 4-8] 3차 테스트 결과 성능 평가 122
[그림 4-9] 테스트 결과 성능 평가 123
[그림 4-10] FPN, RFP 125
[그림 4-11] HRNet 아키텍쳐 126
[그림 4-12] PoseC3D 127
[그림 4-13] CNN을 사용한 음성 분류 127
[그림 4-14] 바운딩 박스, 키 포인트 탐지 및 행동 인식 결과물 128
[그림 4-15] 젖소 이미지 및 오디오 학습 모델 성능 평가 1 130
[그림 4-16] 젖소 이미지 및 오디오 학습 모델 성능 평가 2 130
[그림 4-17] 젖소 이미지 및 오디오 학습 모델 성능 평가 3 131
[그림 4-18] 복수 데이터 활용에 따른 성능 개선 131