Compression de réseaux de neurones pour l'apprentissage fédéré
Abstract
Federated Learning (FL) is a promising distributed method for edge-level machine learning, particularly for privacysensitive applications such as those in military and medical domains, where client data cannot be shared or transferred to a cloud computing server. The communication cost is a major challenge in FL due to its intensive network usage. Client devices, such as smartphones or Internet of Things (IoT) nodes, have limited resources in terms of energy, computation, and memory. To address these hardware constraints, lightweight models and compression techniques such as quantization and pruning are commonly adopted. In this study, we investigate the impact of compression techniques on FL for image classification using CIFAR10 and a ResNet-12 architecture. Our experimental results demonstrate the effectiveness of compression techniques in reducing communication costs while maintaining reasonable accuracy.
L'Apprentissage Fédéré (AF) est une méthode distribuée pour l'apprentissage automatique au niveau edge, utile pour les applications sensibles à la confidentialité. Les dispositifs clients ayant des ressources limitées, tels que les portables ou l'Internet des objets (IoT), doivent limite au maximum la transmission des données pour mieux utiliser leurs ressources. Nous avons étudié l'impact des techniques de compression sur l'AF pour la classification d'images avec le jeu de données CIFAR10 et une architecture ResNet-12, démontrant que ces techniques réduisent les coûts de communication tout en maintenant une précision raisonnable.
Domains
Artificial Intelligence [cs.AI]Origin | Files produced by the author(s) |
---|