FEDERATED LEARNING BASED ON DYNAMIC REGULARIZATION

1 INTRODUCTION

연합 학습(FL)은 여러 장치에 분산된 데이터를 활용하여 데이터 공유 없이 분산 방식으로 학습을 수행하는 개념이다. FL의 주요 특성으로는 불안정한 통신 링크, 대규모로 분산된 데이터, 이질적인 데이터, 그리고 장치 간 데이터 양의 불균형이 있다.

기본적인 연합 학습 문제는 장치 수준의 손실을 합하여 전역 손실을 최소화하는 것이다. FL에서는 통신 라운드 수와 라운드당 통신 비트 수가 중요하다. 모바일 및 IoT 장치는 대역폭이 제한적이며 무선 통신은 많은 전력을 소모하므로, 통신을 줄이는 방식이 필요하다. 분산 SGD는 가능하지만 통신 효율성이 낮다.

최근 연구들은 통신량을 줄이기 위해 최적화 부담을 장치로 옮기는 것을 제안했다. 로컬 데이터를 기반으로 모델을 훈련하는 것은 의미 있지만, 전역 손실 최소화와 일치하지 않는 문제가 있다. 이전 연구들은 장치에서 적은 라운드의 SGD를 실행하거나 서버 측 업데이트를 안정화하여 이를 극복하려 했다.

우리는 MNIST, EMNIST, CIFAR-10, CIFAR-100, Shakespeare 데이터셋에서 실험을 통해 FL 시나리오를 반영하는 다양한 사례를 연구했다. 제안된 FedDyn 알고리즘은 경쟁 방법과 유사한 오버헤드를 가지지만, 더 빠른 수렴 속도로 통신량을 줄이며 목표 정확도를 달성한다. 또한, FedDyn은 구현이 간단하고 하이퍼파라미터 튜닝이 적다.

Untitled

여기서, 𝐿𝑘(𝜃)=𝐸(𝑥,𝑦)∼𝐷𝑘[ℓ𝑘(𝜃;(𝑥,𝑦))]는 k번째 장치의 경험적 손실이며, 𝜃는 우리의 신경망의 매개변수이다. 이 신경망의 구조는 장치와 서버 간에 동일하다고 가정한다. 우리는 𝜃∗로 전역 경험적 손실 함수의 로컬 최소값을 표시한다.