<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
  <dcvalue element="contributor" qualifier="advisor">오상윤</dcvalue>
  <dcvalue element="contributor" qualifier="author">이승준</dcvalue>
  <dcvalue element="date" qualifier="issued">2023-02</dcvalue>
  <dcvalue element="identifier" qualifier="other">32400</dcvalue>
  <dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;aurora.ajou.ac.kr&#x2F;handle&#x2F;2018.oak&#x2F;24569</dcvalue>
  <dcvalue element="description" qualifier="none">학위논문(석사)--아주대학교&#x20;일반대학원&#x20;:인공지능학과,2023.&#x20;2</dcvalue>
  <dcvalue element="description" qualifier="abstract">연합&#x20;학습(federated&#x20;learning)은&#x20;수십만&#x20;개에&#x20;달하는&#x20;사용자&#x20;데이터를&#x20;사용하여&#x20;심층&#x20;신경망을&#x20;학습시키기&#x20;위하여&#x20;제안되었다.&#x20;이&#x20;기법은&#x20;개인정보를&#x20;보호할&#x20;수&#x20;있다는&#x20;특징&#x20;덕분에&#x20;많은&#x20;관심을&#x20;받아&#x20;왔다.&#x20;하지만&#x20;아직&#x20;풀어야할&#x20;중요한&#x20;문제가&#x20;남아&#x20;있다.&#x20;첫&#x20;번째는&#x20;동시에&#x20;참여&#x20;가능한&#x20;클라이언트&#x20;수의&#x20;한계이다.&#x20;클라이언트의&#x20;수가&#x20;증가할&#x20;경우&#x20;하나만&#x20;존재하는&#x20;파라미터&#x20;서버가&#x20;쉽게&#x20;병목&#x20;지점이&#x20;될&#x20;수&#x20;있으며&#x20;또한&#x20;낙오자(straggler)가&#x20;발생하기&#x20;쉬워진다.&#x20;두&#x20;번째는&#x20;데이터&#x20;이질성&#x20;문제로&#x20;전역&#x20;모델(global&#x20;model)의&#x20;정확도에&#x20;악영향을&#x20;끼치는&#x20;문제이다.&#x20;개인&#x20;정보를&#x20;보호하기&#x20;위하여&#x20;사용자&#x20;데이터는&#x20;사용자&#x20;기기에&#x20;남아있어야&#x20;하기에&#x20;기존&#x20;분산&#x20;심층&#x20;학습에서&#x20;데이터를&#x20;균질하게&#x20;만들기&#x20;위해&#x20;사용하던&#x20;데이터&#x20;섞기는&#x20;사용하기&#x20;어렵다.&#x20;이&#x20;연구에서는&#x20;동시에&#x20;참여&#x20;가능한&#x20;클라이언트의&#x20;수를&#x20;늘리고&#x20;동시에&#x20;데이터&#x20;이질성&#x20;문제를&#x20;완화하기&#x20;위한&#x20;CCFed라고&#x20;불리는&#x20;클라이언트&#x20;클러스터링&#x20;및&#x20;모델&#x20;취합(model&#x20;aggregation)&#x20;방법을&#x20;제안한다.&#x20;CCFed는&#x20;집합&#x20;분할&#x20;문제(set&#x20;partition&#x20;problem)을&#x20;사용하여&#x20;클러스터간&#x20;데이터가&#x20;균질하게&#x20;분배되도록&#x20;하고&#x20;이를&#x20;통해&#x20;비항등독립분포의&#x20;영향을&#x20;완하하여&#x20;학습&#x20;성능이&#x20;향상되도록&#x20;한다.&#x20;본&#x20;연구의&#x20;실험에서는&#x20;CCFed가&#x20;FedAvg와&#x20;비교했을&#x20;때&#x20;벤치마크&#x20;데이터셋에서&#x20;FedAvg&#x20;대비&#x20;약&#x20;50%의&#x20;라운드만으로&#x20;약&#x20;2.5에서&#x20;7%p의&#x20;정확도&#x20;향상이&#x20;있음을&#x20;보여주었다.</dcvalue>
  <dcvalue element="description" qualifier="tableofcontents">1&#x20;Introduction&#x20;1&#x0A;&lt;br&gt;2&#x20;Background&#x20;5&#x0A;&lt;br&gt;&#x20;2.1&#x20;Federated&#x20;Learning&#x20;5&#x0A;&lt;br&gt;&#x20;2.2&#x20;Effect&#x20;of&#x20;the&#x20;number&#x20;of&#x20;local&#x20;updates&#x20;and&#x20;the&#x20;number&#x20;of&#x20;clients&#x20;7&#x0A;&lt;br&gt;&#x20;2.2.1&#x20;Relation&#x20;between&#x20;the&#x20;number&#x20;of&#x20;local&#x20;updates&#x20;and&#x20;the&#x20;number&#x20;of&#x20;clients&#x20;8&#x0A;&lt;br&gt;&#x20;2.2.2&#x20;Backward&#x20;of&#x20;the&#x20;many&#x20;clients&#x20;9&#x0A;&lt;br&gt;&#x20;2.3&#x20;Heterogeneous&#x20;Dataset&#x20;in&#x20;Federated&#x20;Learning&#x20;10&#x0A;&lt;br&gt;3&#x20;Proposed&#x20;Method&#x20;13&#x0A;&lt;br&gt;&#x20;3.1&#x20;Motivation&#x20;of&#x20;Client&#x20;Clustering&#x20;13&#x0A;&lt;br&gt;&#x20;3.2&#x20;Architecture&#x20;Overview&#x20;14&#x0A;&lt;br&gt;&#x20;3.3&#x20;Problem&#x20;Formulation&#x20;16&#x0A;&lt;br&gt;&#x20;3.3.1&#x20;Client&#x20;modeling&#x20;17&#x0A;&lt;br&gt;&#x20;3.3.2&#x20;Client&#x20;Data&#x20;Summary&#x20;17&#x0A;&lt;br&gt;&#x20;3.3.3&#x20;Cluster&#x20;19&#x0A;&lt;br&gt;&#x20;3.3.4&#x20;Cluster-level&#x20;Data&#x20;Heterogeneity&#x20;20&#x0A;&lt;br&gt;&#x20;3.4&#x20;CCFed:&#x20;Client&#x20;Clustering&#x20;Federated&#x20;Learning&#x20;21&#x0A;&lt;br&gt;&#x20;3.4.1&#x20;Initializing&#x20;Phase&#x20;21&#x0A;&lt;br&gt;&#x20;3.4.2&#x20;Clustering&#x20;Phase&#x20;22&#x0A;&lt;br&gt;&#x20;3.4.3&#x20;Learning&#x20;Phase&#x20;24&#x0A;&lt;br&gt;&#x20;3.4.4&#x20;Repeated&#x20;execution&#x20;of&#x20;the&#x20;Clustering&#x20;Phase&#x20;27&#x0A;&lt;br&gt;4&#x20;Experiment&#x20;32&#x0A;&lt;br&gt;&#x20;4.1&#x20;Experiment&#x20;Setting&#x20;32&#x0A;&lt;br&gt;&#x20;4.1.1&#x20;Models&#x20;and&#x20;Datasets&#x20;32&#x0A;&lt;br&gt;&#x20;4.1.2&#x20;Learning&#x20;Parameter&#x20;33&#x0A;&lt;br&gt;&#x20;4.2&#x20;Results&#x20;34&#x0A;&lt;br&gt;&#x20;4.2.1&#x20;Training&#x20;Performance&#x20;of&#x20;CCFed&#x20;35&#x0A;&lt;br&gt;&#x20;4.2.2&#x20;Increasing&#x20;the&#x20;Number&#x20;of&#x20;Clusters&#x20;39&#x0A;&lt;br&gt;&#x20;4.2.3&#x20;Effect&#x20;of&#x20;Varying&#x20;the&#x20;Re-clustering&#x20;Interval&#x20;39&#x0A;&lt;br&gt;&#x20;4.2.4&#x20;Effect&#x20;of&#x20;Set&#x20;Partitioning&#x20;on&#x20;the&#x20;Clustering&#x20;39&#x0A;&lt;br&gt;5&#x20;Related&#x20;Works&#x20;44&#x0A;&lt;br&gt;6&#x20;Conclusion&#x20;and&#x20;Future&#x20;works&#x20;47&#x0A;&lt;br&gt;7&#x20;Bibliography&#x20;49</dcvalue>
  <dcvalue element="language" qualifier="iso">eng</dcvalue>
  <dcvalue element="publisher" qualifier="none">The&#x20;Graduate&#x20;School,&#x20;Ajou&#x20;University</dcvalue>
  <dcvalue element="rights" qualifier="none">아주대학교&#x20;논문은&#x20;저작권에&#x20;의해&#x20;보호받습니다.</dcvalue>
  <dcvalue element="title" qualifier="none">Can&#x20;hierarchical&#x20;client&#x20;clustering&#x20;mitigate&#x20;the&#x20;data&#x20;heterogeneity&#x20;effect&#x20;in&#x20;federated&#x20;learning?</dcvalue>
  <dcvalue element="type" qualifier="none">Thesis</dcvalue>
  <dcvalue element="contributor" qualifier="affiliation">아주대학교&#x20;대학원</dcvalue>
  <dcvalue element="contributor" qualifier="alternativeName">Seungjun&#x20;Lee</dcvalue>
  <dcvalue element="contributor" qualifier="department">일반대학원&#x20;인공지능학과</dcvalue>
  <dcvalue element="date" qualifier="awarded">2023-02</dcvalue>
  <dcvalue element="description" qualifier="degree">Master</dcvalue>
  <dcvalue element="identifier" qualifier="url">https:&#x2F;&#x2F;dcoll.ajou.ac.kr&#x2F;dcollection&#x2F;common&#x2F;orgView&#x2F;000000032400</dcvalue>
  <dcvalue element="subject" qualifier="keyword">client&#x20;clustering</dcvalue>
  <dcvalue element="subject" qualifier="keyword">data&#x20;heterogeneity</dcvalue>
  <dcvalue element="subject" qualifier="keyword">federated&#x20;learning</dcvalue>
  <dcvalue element="subject" qualifier="keyword">hierarchical&#x20;aggregation</dcvalue>
  <dcvalue element="description" qualifier="alternativeAbstract">Federated&#x20;learning&#x20;(FL)&#x20;was&#x20;proposed&#x20;for&#x20;training&#x20;a&#x20;deep&#x20;neural&#x20;network&#x20;model&#x20;using&#x20;millions&#x20;of&#x20;user&#x20;data.&#x20;The&#x20;technique&#x20;has&#x20;attracted&#x20;considerable&#x20;attention&#x20;owing&#x20;to&#x20;its&#x20;privacy-preserving&#x20;characteristic.&#x20;However,&#x20;two&#x20;major&#x20;challenges&#x20;exist.&#x20;The&#x20;first&#x20;is&#x20;the&#x20;limitation&#x20;of&#x20;simultaneously&#x20;participating&#x20;clients.&#x20;If&#x20;the&#x20;number&#x20;of&#x20;clients&#x20;increases,&#x20;the&#x20;single&#x20;parameter&#x20;server&#x20;easily&#x20;becomes&#x20;a&#x20;bottleneck&#x20;and&#x20;is&#x20;prone&#x20;to&#x20;have&#x20;stragglers.&#x20;The&#x20;second&#x20;is&#x20;data&#x20;heterogeneity,&#x20;which&#x20;adversely&#x20;affects&#x20;the&#x20;accuracy&#x20;of&#x20;the&#x20;global&#x20;model.&#x20;Because&#x20;data&#x20;should&#x20;remain&#x20;at&#x20;user&#x20;devices&#x20;to&#x20;preserve&#x20;privacy,&#x20;we&#x20;cannot&#x20;use&#x20;data&#x20;shuffling,&#x20;which&#x20;is&#x20;used&#x20;to&#x20;homogenize&#x20;training&#x20;data&#x20;in&#x20;traditional&#x20;distributed&#x20;deep&#x20;learning.&#x20;This&#x20;work&#x20;proposes&#x20;a&#x20;client&#x20;clustering&#x20;and&#x20;model&#x20;aggregation&#x20;method,&#x20;CCFed,&#x20;to&#x20;increase&#x20;the&#x20;number&#x20;of&#x20;simultaneously&#x20;participating&#x20;clients&#x20;and&#x20;mitigate&#x20;the&#x20;data&#x20;heterogeneity&#x20;problem.&#x20;CCFed&#x20;improves&#x20;the&#x20;learning&#x20;performance&#x20;using&#x20;set&#x20;partition&#x20;modeling&#x20;to&#x20;let&#x20;data&#x20;be&#x20;evenly&#x20;distributed&#x20;between&#x20;clusters&#x20;and&#x20;mitigate&#x20;the&#x20;effect&#x20;of&#x20;a&#x20;non-IID&#x20;environment.&#x20;Experiments&#x20;show&#x20;that&#x20;CCFed&#x20;can&#x20;achieve&#x20;a&#x20;2.5-7%p&#x20;higher&#x20;accuracy&#x20;using&#x20;CCFed&#x20;compared&#x20;with&#x20;FedAvg,&#x20;where&#x20;CCFed&#x20;requires&#x20;only&#x20;approximately&#x20;50%&#x20;of&#x20;rounds&#x20;compared&#x20;with&#x20;FedAvg&#x20;training&#x20;on&#x20;benchmark&#x20;datasets.</dcvalue>
</dublin_core>
