SEMINAR

Federated Robustness Propagation: Sharing Robustness in Heterogeneous Federated Learning

Seungwoo Shin
2026.04.10
Federated Learning
Adversarial Attack
Federated Robustness Propagation: Sharing Robustness in Heterogeneous Federated Learning
VENUE2023 AAAI
PAPER LINKAAAI

Overview

  • Federated Learning은 데이터 공유 없이 파라미터만 공유하여 학습하는 구조
  • Adversarial training은 robustness를 향상시키지만 계산 비용이 커 일부 client만 수행 가능
  • client 간 computing resource와 data distribution이 heterogeneous하여 성능 격차 발생
  • 본 연구는 robustness를 client 간에 전달하는 Federated Robustness Propagation 방법 제안

Key Takeaways

Problem Setting

  • federated learning 환경에서 client마다 데이터 분포와 자원이 다름
  • adversarial training은 비용이 높아 일부 client만 적용 가능
  • adversarial training을 하지 않는 client는 robustness가 낮음
  • 제한된 환경에서 robustness를 효과적으로 공유하는 것이 핵심 문제

Main Idea

  • BN statistics를 활용하여 adversarial robustness를 전달하는 구조 설계
  • Dual BN Structure
    • BNc는 clean data에 대한 statistics
    • BNa는 adversarial data에 대한 statistics
    • affine parameter는 공유하고 BN statistics는 분리
  • AT Client
    • clean branch와 adversarial branch를 함께 학습
    • PGD 기반 adversarial sample 생성
    • clean loss와 adversarial loss를 동시에 최적화
  • ST Client
    • adversarial training 없이 학습 수행
    • server에서 전달받은 BNa를 활용하여 pseudo-noise calibration 수행
    • clean data만으로도 adversarial robustness를 일부 반영
  • Robustness Propagation
    • server가 AT client의 BNa statistics를 수집
    • BNc 기반 similarity로 client 간 유사도 계산
    • weighted aggregation으로 적절한 BNa를 생성하여 전달

Result

  • 일부 client만 adversarial training을 수행해도 전체 robustness 향상
  • full adversarial training 대비 낮은 비용으로 유사한 성능 달성
  • data heterogeneity와 hardware heterogeneity 환경 모두에서 안정적인 성능
  • cosine similarity 기반 weighting이 uniform 방식보다 성능 우수
  • 다양한 attack 설정에서도 robustness 유지
  • BN statistics 품질과 domain 차이에 따라 성능이 영향을 받는 한계 존재