이 논문은 의료 이미지 인식 모델에 대한 클래스 불균형한 환경에 서 style knowledge distillation를 소개한다. 적은 샘플을 가진 클래 스들은 일반적으로 의료 이미지 인식 작업에서 낮은 성능을 보인다. 따라서 저자는 효율적인 생성 모델 및 style knowledge distillation를 통해 이러한 적은 샘플 클래스의 예측 성능을 향상시키려고 한다. 의 료 분야에서 대량의 훈련 이미지를 확보하는 것은 개인 정보 보호 및 비용 문제로 어렵다. 또한 질병 발병률이 크게 다르기 때문에 클 래스 불균형 문제는 심각하다. 중요한 점은 희귀 질병에 대한 샘플을 확보하는 것이 대부분 어려움에도 불구하고 진단 모델은 질병이 있 는 샘플을 정확하게 예측할 수 있어야 한다는 것이다. 모델이 불균형 한 데이터로 훈련되면 1) 모델은 majority classes에 대해 편향된 결 과를 나타낼 확률이 매우 높으며, 2) minority classes에 대한 인식 성능이 급속하게 감소하여 낮은 성능을 보일 것으로 예상된다. 이를 해결하기 위해, 본 논문에서는 클래스 불균형 문제를 해결하기 위한 style knowledge distillation 방법을 소개한다. 제안된 방법은 훈련 샘플의 스타일을 전송한 auxiliary image를 생성한다. 우리는 auxiliary image의 스타일을 distillation하여 균형 잡힌 샘플로 모델 을 훈련시킨다. 이 접근 방법은 클래스 분포가 편향된 의료 이미지 데이터셋에 대해 매우 효과적이다. 저자는 APTOS2019, ISIC2018 데 이터셋을 각각 사용하여 적은 샘플을 가진 클래스의 정확도를 상당 히 증가시키고, 큰 샘플을 가진 클래스에는 부정적인 영향을 미치지 않는 것을 보여준다. 주제어 : 의료 이미지, Knowledge Distillation, style transfer