본문 바로가기 주메뉴 바로가기
국회도서관 홈으로 정보검색 소장정보 검색

목차보기

표제지

국문초록

목차

Ⅰ. 서론 10

1.1. 녹내장 개요 10

1.2. 연구의 필요성 15

Ⅱ. 관련 연구 16

2.1. 멀티모달 분류 모델 16

2.2. 멀티모달 녹내장 진단 모델들 19

2.3. 정형데이터의 이미지 변환 연구 21

Ⅲ. 실험 방법 24

3.1. 제안한 방법 소개 24

3.1.1. 안저사진 처리 25

3.1.2. EMR 데이터 처리 25

3.1.3. 데이터 통합 및 모델 구축 25

3.2. 실험 절차 26

3.2.1. 데이터셋 26

3.2.2. 안저사진 처리 27

3.2.3. EMR 데이터 전처리 28

3.2.4. EMR 데이터 정규화 29

3.2.5. 정형데이터의 이미지 변환 30

3.2.6. 데이터 통합 및 모델 구축 35

3.3. 실험 환경 37

3.4. 평가 지표 38

3.5. 비교 대상 모델 40

3.5.1. 싱글모달 비교모델 40

3.5.2. 멀티모달 비교모델 42

Ⅳ. 실험 결과 43

4.1. 제안모델의 성능 평가 43

4.2. 제안모델과 이전 모델의 성능 비교 45

Ⅴ. 결론 47

참고문헌 48

부록 52

Abstract 56

표목차

Table 3-1. Number of Dataset 26

Table 3-2. Preprocessed EMR Data Sample 28

Table 3-3. Experiment Environment 37

Table 3-4. Confusion Matrix 38

Table 3-5. Best Single-Modal Results for DKU Dataset 40

Table 3-6. Best Single-Modal Results for GNU Dataset 41

Table 4-1. Multimodal Results with EMR's CNN on DKU Dataset 43

Table 4-2. Multimodal Results with EMR's CNN on GNU Dataset 44

Table 4-3. Comparative Performance Study on DKU Dataset 45

Table 4-4. Comparative Performance Study on GNU Dataset 46

그림목차

Figure 1-1. OCT Sample 11

Figure 1-2. Visual Field Test Sample 12

Figure 1-3. Fundus Image Sample 13

Figure 1-4. EMR data Sample 14

Figure 2-1. Early Fusion Architecture Example 17

Figure 2-2. Late Fusion Architecture Example 17

Figure 2-3. Cross-modality Fusion Architecture Example 18

Figure 2-4. Feature Vector to Pixel via DeepInsight 21

Figure 2-5. Numeric Data Visualization with Brightness Variation 22

Figure 2-6. Time-series Data Visualization with Line Plot 23

Figure 3-1. Overview of the Multimodal Structure 24

Figure 3-2. Fundus Image Preprocessing 27

Figure 3-3. Feature Layout and Color in Image 30

Figure 3-4. Numeric to Image Conversion Example 34

Figure 3-5. Multimodal Data Integration Structure 35

초록보기

 녹내장은 심각한 시각 장애를 유발하는 질환으로, 심할 경우 실명까지 이어질 수 있다. 따라서 녹내장을 조기에 발견하는 것은 중요하다. 본 연구에서는 안저사진과 EMR 데이터를 기반으로 한 멀티모달 녹내장 진단 모델을 제안한다. 연구에서는 EMR 데이터, 즉 정형데이터를 이미지로 변환하는 기법을 적용하였다. 안저사진은 전처리 및 시신경유두 분할 과정을 거친 후 CNN 모델을 통해 이미지 피처를 추출하였다. 그리고 EMR 데이터는 전처리 및 정규화 과정을 거치고, 이를 이미지로 변환하여 CNN 모델을 통해 피처를 추출하였다. 추출된 두 피처 벡터는 결합되어 앙상블 학습을 통해 최종 결과를 도출하였다. 본 모델의 성능은 단국대학교 병원과 경상국립대학교 병원의 데이터셋을 통해 검증하였으며, 각각 약 90.11%와 93.31%의 분류 정확도를 달성하였다. 이러한 결과는 싱글모달 방식에 비해 정확도뿐만 아니라 다른 성능 지표에서도 높은 성능을 나타냈고, 다른 멀티모달 비교모델들과 비교했을 때도 일부 지표를 제외하고는 더 높은 성능을 보였다.