연합 학습은 개별 클라이언트 장치의 분산 훈련을 통해 개인정보를 보호하며, 중앙 서버에는 모델 가중치만 공유되도록 한다. 그러나 클라이언트 간의 데이터 다양성은 도전을 제기한다. 본 연구는 개인화된 연합 학습의 한 변형인 표현 학습에 중점을 둔다. 다양한 표현 학습 연구에 따르면 표현 학습 모델은 두 부분으로 나뉜다: 서버에 공유되고 업데이트 되는 기본 계층과 서버에 공유되지 않고 개별 클라이언트에 국한된 머리 계층이다. 최신 표현 학습 접근법 중 데이터의 다양성으로 인해 머리 계층이 노이즈처럼 작용할 수도 있다고 주장하며 로컬 및 글로벌 훈련 모두에 기본 계층만을 사용하는 연구에서는 헤드 계층은 훈련 후 고유한 클라이언트 데이터 특성을 포착하기 위해 미세 조정(Fine-tuning)에만 사용된다. 여기서 우리는 기본 훈련을 오래 진행할 경우 미세 조정 후의 정확도가 감소할 수 있다는 것을 확인하였다. 대책으로, 우리는 클라이언트 간의 테스트 정확도의 표준 편차를 모니터링하여 미세 조정을 위한 최적의 라운드를 결정하는 방법을 제안한다. 이 전략은 미세 조정 전에 모든 클라이언트에 대한 글로벌 모델을 일반화하는 것을 목표로 한다. 미세 조정 정확도에 대한 과도한 기본 계층 훈련의 단점을 강조하며, 계산 및 통신 오버헤드를 최소화하기 위해 최적의 미세 조정 시점을 편차 추적을 통해 정확하게 파악하는 새로운 접근법을 소개한다. 더 나아가 본 연구에서는 인간이 학습하는 방식과 유사한 커리큘럼 학습(Curriculum Learning) 접근법에서 영감을 받아 표현 학습 알고리즘에 레이어 스케줄링 기법을 적용해보았다. 표현 학습에서의 기본 계층을 보다 조밀하게 나누기 위해 스케줄링 기법을 적용한 결과 클래스 이질성에 따른 적절한 레이어 스케줄링 기법을 적용한다면 높은 정확도를 달성할 수 있었다.