본 논문에서는 양자화로 인한 딥러닝 가속기의 추론 정확도 저하 문제를 해결하기 위해 비트 수를 줄이면서도 정확도를 유지할 수 있는 근사 부스 곱셈기를 도입한다. 제안하는 구조는 기존의 복합 부스 곱셈기와 유사한 방식으로, MSB 부에는 정밀한 Radix-4 부스 인코딩을, LSB 부에는 근사 Radix-8 부스 인코딩을 적용한다. 이 때 근사값으로 인한 오차는 ED와 ED의 평균값인 MRED를 통해 확인할 수 있다.
기존 기법과는 달리 데이터 비트 수를 줄이기 위해 근사값으로 할당된 부분 곱에 대해 데이터 감소 인코딩을 적용한다. 이 때 인코딩 부분의 MSB는 상위 Radix-4 그룹에서의 최하위 비트와 동일하며, 가속기 연산을 위해 추가로 저장되지 않는다.
따라서, 제안하는 근사 부스 곱셈기에서는 총 7 비트의 데이터를 사용하여 8비트의 근사 연산과 유사한 정밀도를 얻을 수 있다. 제안하는 부스 곱셈기를 통한 Resnet-18 모델 학습 연산 결과, 기존 7비트 고정 소수점 기반 곱셈기를 이용한 결과보다 높은 학습 정확도를 갖는다. 또한, 제안하는 근사 곱셈기의 전력과 면적을 기존의 곱셈기와 비교한 결과 전력은 23.06%, 면적은 24.04% 줄어들었고, MRED는 제안하는 근사 곱셈기가 가장 낮음을 확인할 수 있었다. 전력, 면적, 정확도 면에서 전부 효율적인 근사 부스 곱셈기 설계가 가능하다.