표제지
목차
Ⅰ. 서론 10
1. 연구 추진 배경 및 목적 10
2. 연구 내용 및 범위 12
Ⅱ. 국내외 디지털 리터러시 평가 및 컴퓨팅 사고 도구 사례 16
1. KERIS의 국가수준 디지털 리터러시 검사도구 16
가. 개념 정의 및 평가 영역 16
나. 평가 문항 및 검사 시스템 20
다. 검사 시행 및 피드백 27
라. 시사점 35
2. KERIS 이외의 국내 연구 사례 37
가. 개념 정의 및 평가 영역 37
나. 평가 문항 및 검사 시스템 44
다. 검사 시행 및 피드백 51
라. 시사점 53
3. IEA의 ICILS 54
가. 개념 정의 및 평가 영역 54
나. 평가 문항 57
다. 검사시스템 67
라. 검사 시행 및 피드백 69
마. 시사점 70
4. EU의 DigComp 72
가. 개념 정의 및 평가 영역 72
나. 검사 시스템 또는 평가 문항, 피드백 74
다/마. 시사점 81
5. 호주의 ICT 리터러시 평가 82
가. 개념 정의 및 평가 영역 82
나. 평가 문항 87
다. 평가 도구 91
라. 평가 척도 및 결과 보고 98
마. 시사점 100
6. ATC21S의 협력적 디지털 리터러시 평가 101
가.배경 101
나. 평가 영역 106
다. 평가 문항 및 검사 시스템 110
라. 시사점 114
7. Center for Digital Dannelse의 DCW 115
가. 개념 정의 및 평가 영역 115
나. 평가 문항 및 검사 시스템 118
다. 시사점 120
8. CT 명가 및 학습 도구 사례 122
가. Bebra challenge(비버첼린지 2020) 122
나. 컴퓨팅 사고(CT) 교육을 위한 웹기반 오픈 플랫폼 131
Ⅲ. 디지털 리터러시 평가도구 개발 방향 탐색 139
1. 디지털 리터러시 정의 및 평가 영역 139
가. 전통적인 접근 139
나. 통합적ㆍ포괄적 접근 143
2. 디지털 리터러시 평가 방법 및 도구 148
가. 수행형 평가 문항의 적극적 도입 및 관련 지원체제 개발 150
나. 다양한 평가 방식을 고려한 종합적 평가도구의 설계 151
다. 다양한 자원 활용이 가능한 다각적ㆍ독자적 검사 시스템 개발 152
라. 디지털 리터러시 진단ㆍ환류 정보 제공의 구체화 153
마. 디지털 리터러시 평가와 교수학습 간의 연계 모색 153
Ⅳ. 결론 및 제언 155
1. 결론 155
2. 제언 156
참고문헌 158
[부록] iKanos 측정도구 문항 162
판권기 174
〈표 Ⅰ-2-1〉 디지털 리터러시 평가도구의 문항 유형에 따른 분류 13
〈표 Ⅰ-2-2〉 디지털 리터러시 평가도구의 사용 목적에 따른 분류 14
〈표 Ⅱ-1-1〉 KERIS의 디지털 리터러시 검사도구의 평가 영역: 검사 프레임 17
〈표 Ⅱ-1-2〉 KERIS의 디지털 리터러시 검사도구의 성취기준 17
〈표 Ⅱ-1-3〉 KERIS의 디지털 리터러시 검사도구의 평가 영역: 내용 영역 19
〈표 Ⅱ-1-4〉 KERIS의 SW교육 역랑 진단 도구의 평가 영역 19
〈표 Ⅱ-1-5〉 KERIS의 디지털 리터러시 검사도구의 검사 실시 개요 20
〈표 Ⅱ-1-6〉 KERIS의 디지털 리터러시 검사도구의 성취수준 32
〈표 Ⅱ-1-7〉 KERIS의 SW교육 역량 진단 도구의 성취수준 및 능력수준 32
〈표 Ⅱ-2-1〉 국내 연구 사례에서 제시된 디지털 리터러시의 정의 37
〈표 Ⅱ-2-2〉 디지털 역량(리터러시)의 평가 영역 및 요소 39
〈표 Ⅱ-2-3〉 이승민, 강두봉(2021)이 제시한 디지털 리터러시의 평가 영역 39
〈표 Ⅱ-2-4〉 디지털 리터러시의 평가 영역 40
〈표 Ⅱ-2-5〉 디지털 리터러시의 인지적 평가 영역 41
〈표 Ⅱ-2-6〉 앙길석, 서수현, 옥현진(2020)이 제시한 디지털 리터러시의 정의적 평가 영역 41
〈표 Ⅱ-2-7〉 부산형 디지털 리터러시 교육의 평가 영역 42
〈표 Ⅱ-2-8〉 디지털 역량의 세부 영역 43
〈표 Ⅱ-2-9〉 영어과 디지털 리터러시 교육 관련 성취 기준 및 성취 수준 예시 47
〈표 Ⅱ-2-10〉 국내 개인 연구자가 개발한 디지털 리터러시 평가도구의 검사 실시 개요 48
〈표 Ⅱ-2-11〉 디지털 리터러시 평가도구 문항 48
〈표 Ⅱ-2-12〉 이승민, 강두봉(200: 65)의 디지털 리터러시 검사도구 문항 예시 50
〈표 Ⅱ-2-13〉 신소영, 이승희(2019: 757)의 디지털 리터러시 측정도구 문항 예시 50
〈표 Ⅱ-3-1〉 ICILS의 모둘과 관련 과제에 대한 사례(IEA, 2018b, p.54) 57
〈표 Ⅱ-3-2〉 CIL 평가에 대한 학생의 수준별 숙련도 기준 69
〈표 Ⅱ-3-3〉 CT 평가에 대한 학생의 수준별 숙련도 기준 70
〈표 Ⅱ-4-1〉 DigComp 평가 영역 및 세부 역량 구분 72
〈표 Ⅱ-4-2〉 Eu DigComp2.1 기반 iKanos 평가 도구 영역 구성 75
〈표 Ⅱ-5-1〉 호주의 ICT 리터러시 관련 교육과정 내용 83
〈표 Ⅱ-5-2〉 NAP-ICT 리터러시 2005-2017 평가의 ICT 리터러시 과정 83
〈표 Ⅱ-5-3〉 2021 NAP-ICT 리터러시 평가의 평가 영역 85
〈표 Ⅱ-5-4〉 2021 NAP-ICT ICT 리터러시 평가의 평가요소멀 평가 내용 예시 86
〈표 Ⅱ-5-5〉/〈표 Ⅱ-5-6〉 2021 NAP-ICT 리터러시 평가도구의 평가 영역 및 평가 요소 98
〈표 Ⅱ-5-6〉/〈표 Ⅱ-5-7〉 NAP-ICT 리터러시 2017년 수월성 척도 99
〈표 Ⅱ-6-1〉 ICT 리터러시에 대한 접근 방식 102
〈표 Ⅱ-6-2〉 ETS(2011) ICT 리터러시 평가 영역 103
〈표 Ⅱ-6-3〉 MCEETYA/ACER 프레임워크 수준 105
〈표 Ⅱ-6-4〉 협력적 디지털 리터러시 평가 영역 106
〈표 Ⅱ-7-1〉 DCW 평가 영역: 정보 116
〈표 Ⅱ-7-2〉 DCW 평가 영역: 의사소통 116
〈표 Ⅱ-7-3〉 DCW 평가 영역: 생산 117
〈표 Ⅱ-7-4〉 DCW 평가 영역: 안전 117
〈표 Ⅲ-1-1〉 디지털 리터러시 평가 구인의 정의 139
〈표 Ⅲ-1-2〉 국ㆍ내외 디지털 리터러시 검사도구 비교 분석 및 시사점 141
〈표 Ⅲ-1-3〉 국ㆍ내외 디지털 리터러시 혹은 역량 프레임워크 비교 146
〈표 Ⅲ-2-1〉 국내ㆍ외 디지털 리터러시 평가도구 종합 149
[그림 Ⅱ-1-1] KERIS의 디지털 리터러시 검사도구의 선다형 문항 예시: ICT 요소(이현숙 외, 2019b: 57) 21
[그림 Ⅱ-1-2] KERIS의 디지털 리터러시 검사 도구의 조작형 문항 화면 예시(이현숙 외, 2019a: 23) 22
[그림 Ⅱ-1-3] KERIS의 디지털 리터러시 검사도구의 조작형 문항 예시(이현숙 외, 2019b: 57) 23
[그림 Ⅱ-1-4] KERIS의 SW교육 역량 진단 도구의 문항 예시: 과제 제시 화면 24
[그림 Ⅱ-1-5] KERIS의 SW교육 역량 진단 도구의 문항 예시: 정보 수집 25
[그림 Ⅱ-1-6] KERIS의 SW교육 역랑 진단도구의 문항 예시: 정보윤리의식 26
[그림 Ⅱ-1-7] KERlS의 SW교육 역량 진단도구의 문항 예시: 적용 26
[그림 Ⅱ-1-8] KERIS 디지털 리터러시 검사의 학급용 결과 프로파일 예시 28
[그림 Ⅱ-1-9] KERIS 디지털 리터러시 검사의 개인별 결과 프로파일 예시(이현숙 외, 2019a: 188) 29
[그림 Ⅱ-1-10] KERIS 디지털 리터러시 검사의 학교별 종합 보고서 예시 31
[그림 Ⅱ-1-11] KERIS 디지털 리터러시 검사의 학교별 종합 보고서 예시: 성취수준 비율 31
[그림 Ⅱ-1-12] KERIS SW교육 역랑 진단 도구의 학교별 종합 보고서 예시 34
[그림 Ⅱ-2-1] 디지털 리터러시의 영역(노은희 외, 2018: 24) 38
[그림 Ⅱ-2-2] 디지털 리터러시 평가도구 화면 예시 전체 화면(김인숙 외, 2020: 453) 45
[그림 Ⅱ-2-3] 김인숙 외(2020)의 디지털 리터러시 평가도구 문항 예시 46
[그림 Ⅱ-2-4] 부산형 디지털 리터러시 교육 교수ㆍ학습 지도안의 예시: 초등 영어과(부산광역시교육청, 2021: 34) 47
[그림 Ⅱ-2-5] 디지털 리터러시 평가도구 평가 결과 보고 예시 51
[그림 Ⅱ-2-6] 부산형 디지털 리터러시 교육을 통한 학생 피드백 제공 화면 예시(부산광역시교육청, 2021: 38) 52
[그림 Ⅱ-3-1] ICILS의 CIL 평가 영역 및 하위 요소(IEA, 2018a: 18) 55
[그림 Ⅱ-3-2] ICILS의 CT 평가 영역 및 하위 요소(IEA, 2018a: 28) 56
[그림 Ⅱ-3-3] ICILS의 맥락적 프레임워크(IEA, 2018b: 7) 56
[그림 Ⅱ-3-4] ICILS의 CIL의 선다형 문제 중 하위요소 2.2 정보 관리 사례 문항(IEA, 2018: 46) 58
[그림 Ⅱ-3-5] ICILS의 CIL의 개방형 문제 사례(IEA, 2018: 47) 59
[그림 Ⅱ-3-6] ICILS의 CIL의 기능 과제 중 선형적인 과제로 하위 요소 1.2. 컴퓨터 사용 방법 사례(IEA, 2018: 48) 60
[그림 Ⅱ-3-7] ICILS의 CIL의 기능형 과제 중 비선형적인 기능 과제로 하위요소 2.2. 정보관리 사례(IEA, 2018: 49) 61
[그림 Ⅱ-3-8] ICILS의 CIL의 저작형 과제 중 간단한 문제 사례(IEA, 2018: 50) 62
[그림 Ⅱ-3-9] ICILS의 CIL의 저작 과제 중 복잡한 문제로 하위 요소 3.1. 정보 변환과 하위 요소 3.2. 정보 생성의 구인과 관련된 사례(IEA, 2018: 51) 63
[그림 Ⅱ-3-10] ICILS의 CT 과제 중 비순차적 시스템 이동 과제(IEA, 2018: 52) 65
[그림 Ⅱ-3-11] ICILS의 CT 과제 중 시뮬레이션 과제로 하위 요소 1.3(자료 수집 및 표현)과 관련된 주제(IEA, 2018: 53) 66
[그림 Ⅱ-4-1] iKanos의 DigComp 평가 흠페이지 74
[그림 Ⅱ-4-2] iKanos의 초기 검사 도구인 디지털 역랑 평가 항목의 예시 1 76
[그림 Ⅱ-4-3] iKanos의 초기 검사 도구의 평가 결과에 대한 리포트 화면 77
[그림 Ⅱ-4-4] iKanos의 새로운 버전의 디지털 역량 평가 항목의 예시 78
[그림 Ⅱ-4-5] dcds-project.eu 연구에서 결과물로 제시한 평가 항목의 예시 1(DCDS, 2018: 14) 79
[그림 Ⅱ-4-6] dcds-project.eu 연구에서 결과물로 제시한 평가 항목 예시 2(DCDS, 2018: 15) 80
[그림 Ⅱ-4-7] dcds-project.eu 평가 항목의 예시 3(DCDS, 2018: 35) 80
[그림 Ⅱ-5-1] NAP-ICT 평가도구(2005 2017) 평가 영역(ACARA, 2021:14, 그림 2.1) 84
[그림 Ⅱ-5-2] ICT 리터러시의 맥락 요인 프레임워크(ACARA, 2020: 26) 89
[그림 Ⅱ-5-3] 검사 환경(ACAPA, 2020: 34) 90
[그림 Ⅱ-5-4] 선다형 과제 예시(ACAPA, 2020: 39) 93
[그림 Ⅱ-5-5] 구성형 과제 예시(ACAPA, 2020: 40) 94
[그림 Ⅱ-5-6] 선형 기능 과제 예시(ACAPA, 2020: 41) 95
[그림 Ⅱ-5-7] 비선형적인 기능 과제 예시(ACAPA, 2020: 42) 96
[그림 Ⅱ-5-8] 저작 과제의 예시(ACAPA, 2020: 43) 97
[그림 Ⅱ-6-1] ATC21S 프로젝트 10개 역량(KSAVE)(Wilson et al., 2015: 67) 102
[그림 Ⅱ-6-2] PISA 2018 컴퓨터기반평가 사례(조성민 외, 2019: 319 공개문항 2번) 104
[그림 Ⅱ-6-3] 협력적 리터러시의 4가지 평가 영역(Wilson et al, 2015: 77, 그림8) 109
I그림 Ⅱ-6-4] Arctic Trek 과제: 첫 화면(Wilson & Scalise, 2012: 14, 그림5) 110
[그림 Ⅱ-6-5] Arctic Trek 과제: 팀 역할 화면(Wilson & Scalise, 2012: 15, 그림7) 111
[그림 Ⅱ-6-6] Arctic Trek 과제: 힌트 제공 화면(Wilson & Scalise, 2012: 16, 그림12) 111
[그림 Ⅱ-6-7] Arctic Trek 과제: 교사 도움 제공 화면(Wilson & Scalise, 2012: 17, 그림13 112
[그림 Ⅱ-6-8] Webspiration 과제: 시나리오 및 오디오 생성 화면 113
[그림 Ⅱ-7-1] DCW 평가문항 화면 118
[그림 Ⅱ-7-2] DCW 개인의 영역별 평가 결과 화면 119
[그림 Ⅱ-7-3] DCW 개인의 영역별 평가 결과 화면 119
[그림 Ⅱ-7-4] DCW 사용자 집단 전체의 수준 분포 화면 120
[그림 Ⅱ-8-1] 영국 비버챌린지 문항 및 답안 예시 125
[그림 Ⅱ-8-2] 한국 비버챌린지 문항 예시 126
[그림 Ⅱ-8-3] 호주에서 제시한 비버챌린지 문항 및 답안 예시 127
[그림 Ⅱ-8-4] 한국 비버챌린지 체험하기 검사시스템 사례 화면 128
[그림 Ⅱ-8-5] 한국 비버챌린지 선다형 문제 사례: 침입자 128
[그림 Ⅱ-8-6] 한국 비버챌린지 interactive형 문제 사례: 돌다리 설치하기 129
[그림 Ⅱ-8-7] 2020년 비버챌린지 도전하기 그룹 I의 응시 결과 129
[그림 Ⅱ-8-8] 비버챌린지 이수증 130
[그림 Ⅱ-8-9] 코드닷오알지 홈페이지의 다양한 코스 132
[그림 Ⅱ-8-10] 문제해결을 위한 인터페이스 132
[그림 Ⅱ-8-11] 단계 완수 시 텍스트 기반 언어 정답 제공 화면 132
[그림 Ⅱ-8-12] 코드닷오알지에서 제시하는 문제 형태 예시 화면 1 133
[그림 Ⅱ-8-13] 코드닷오알지에서 제시하는 문제 형태 예시 화면 2 133
[그림 Ⅱ-8-14] 블록리 게임즈 홀 화면 134
[그림 Ⅱ-8-15] 블록리 게임즈에서 퍼즐 평가 화면 135
[그림 Ⅱ-8-16] 블록리 게임즈에서 동영상 미션 수행 단계 화면 135
[그림 Ⅱ-8-17] 리보그 세상에서 문제 제시 화면 136
[그림 Ⅱ-8-18] 리보그 세상에서 문제 해결 완수 화면 137
[그림 1]/[그림 부록 1] iKanos 1.1. 데이터 및 정보, 디지털 콘텐츠를 브라우징, 검색 및 필터링영역 측정도구 화면 1 162
[그림 2] iKanos 1.1. 데이터 및 정보, 디지털 콘텐츠를 브라우징, 검색 및 필터링 영역 측정도구 화면 2 162
[그림 3] iKanos 1.2. 데이터, 정보, 디지털 콘텐츠를 평가 영역 측정도구 화면 163
[그림 4] iKanos 1.3. 데이터, 정보, 디지털 콘텐츠를 관리 영역 측정도구 화면 163
[그림 5] iKanos 2.1. 디지털 콘텐츠를 활용한 상호작용 영역 측정도구 화면 164
[그림 6] iKanos 2.2. 디지털 콘텐츠를 활용한 공유 영역 측정도구 화면 164
[그림 7] iKanos 2.3. 디지털 콘텐츠를 활용한 시민활동 참여 영역 측정도구 화면 165
[그림 8] iKanos 2.4. 디지털 콘텐츠를 활용한 협력 영역 측정도구 화면 165
[그림 9] iKanos 2.5. 네티켓 영역 측정도구 화면 166
[그림 10] iKanos 2.6. 디지털 개인고유번호 관리 영역 측정도구 화면 166
[그림 11] iKanos 3.1. 디지털 콘텐츠 개발 영역 측정도구 화면 167
[그림 12] iKanos 3.2. 디지털 콘텐츠를 통합하고 재설명 영역 측정도구 화면 167
[그림 13] iKanos 3.2. 디지털 콘텐츠를 통합하고 재설명 영역 측정도구 화면 168
[그림 14] iKanos 3.3. 저작권 및 라이선스 영역 측정도구 화면 168
[그림 15] iKanos 3.4. 프로그래밍 영역 측정도구 화면 169
[그림 16] lKanos 4.1. 디바이스 보호 영역 측정도구 화면 169
[그림 17] iKanos 4.2. 개인 정보화 사생활 정보 보호 영역 측정도구 화면 170
[그림 18] iKanos 4.3. 건강 및 웰빙 보호 영역 측정도구 화면 170
[그림 19] iKanos 4.4. 환경보호 영역 측정도구 화면 171
[그림 20] iKanos 5,1. 기술적 문제 해결 측정도구 화면 171
[그림 21] iKanos 5.2. 사용자 요구 및 기술적 반응 확인 영역 측정도구 화면 172
[그림 22] iKanos 5.3. 창의적으로 디지털 기술을 활용 영역 측정도구 화면 172
[그림 23] iKanos 5.4. 디지털 격차 확인 영역 측정도구 화면 173