PFLlib
PFLlib copied to clipboard
We expose this user-friendly algorithm library (with an integrated evaluation platform) for beginners who intend to start federated learning (FL) study
The `show_data_distribution.py` shows in a visual way how discrete the dataset is after running `generate_mnist.py noniid - dir` (`alpha = 0.1` for the Dirichlet distribution in `./dataset/utils/dataset_utils.py`)
Implemented FEMNIST dataset from leaf generation.
I generated a non-iid version of FashionMINST for 15 clients using the following command `python generate_FashionMNIST.py noniid - pat` The output of the data distribution on the terminal is as...
我在使用系统默认的配置时,只修改了--client_drop_rate=0.9,即有90%节点白训练了,但是训练结果似乎没有变化 请问这是什么原因导致的? 是模型设计的太好了吗? 我将数据集划分1000份,只用100个客户端进行训练(每次采样0.3),同时也设置0.9的退出率,发现效果和0的退出率还是相差无几 请问应该修改哪些参数可以使得对比效果更明显。
你好,我想问一下FedAvg算法的准确率为什么这么高? 实验设置:数据集使用的是Cifar10,数据分布使用的是参数为0.1的狄利克雷分布。 实验结果:FedAvg算法的准确率高达89.63%,而APFL算法的准确率才89.97% 这个实验结果应该明显是不对的,而且在FedALA算法的论文同样的实验设置下FedAvg算法的准确率是59.16%,但是我实在是找不出哪里有问题了,能麻烦作者大大帮忙看下吗 使用的实验命令如下: 生成数据集:python generate_Cifar10.py noniid - dir 启动训练:python main.py -data Cifar10 -m ResNet18 -algo FedAvg -gr 2000 -did 0 -jr 0.5 -eg 5 【PS:感谢作者大大的工作,整个仓库的代码读起来感觉非常清晰】
您好,这里聚合策略选用fedkd时,我看客户端的两个模型都是一样的结构,不是采用的有一个大模型(mentor)和一个小模型(mentee)吗