기계 학습 분야는 딥러닝이 이 분야의 선두주자로 부상함에 따라 황금 시대를 맞이하고 있다. 딥러닝은 다층으로 구성된 신경망을 사용하여 데이터의 추상화를 표현하고 계산 모델을 구축한다. 생성적 적대 신경망, 합성곱 신경망, 모델 전이와 같은 주요 딥러닝 알고리즘은 정보 처리에 대한 우리의 인식을 완전히 바꿔 놓았다. 대부분의 딥러닝 알고리즘은 많은 수의 가중치로 구성되어 있으며, 이는 모델의 크기가 커지고 실행에 필요한 계산량이 많아지는 주요 원인이다. 이런 빠른 발전 속도에 비해 임베디드 디바이스는 낮은 성능으로 다양한 딥러닝 알고리즘을 실행하는 데 어려움을 겪고 있다. 이러한 문제를 해결하기 위해 모델 압축은 중요한 역할을 한다. 모델 압축은 딥러닝 알고리즘의 연산량을 줄이고 계산 효율성을 향상시키는 기법들의 집합이다. 이를 통해 작은 임베디드 디바이스에서도 제한된 자원으로 딥러닝 알고리즘을 실행할 수 있게 된다. 모델 압축 기법에는 양자화 기법, 지식 증류 기법, 가중치 가지치기 기법 등이 있으며 이 이외에도 다양한 모델 압축 기법이 연구되고 있다. 본 논문에서는 강화학습을 이용한 모델 압축 방식에서 강화학습의 발전에 따라 모델 압축도 효과적인지 강화학습을 변경해보며 성능을 비교한다. 본 논문의 결과로 SAC 알고리즘의 특징을 이용한 채널 가지치기는 다른 강화학습보다 압축률이 뛰어나고 정확도가 높은 결과를 보인다. 이는 강화학습의 특징을 잘 활용하면 모델 압축 분야에 뛰어난 성능을 보일 수 있다.