PFLlib icon indicating copy to clipboard operation
PFLlib copied to clipboard

We expose this user-friendly algorithm library (with an integrated evaluation platform) for beginners who intend to start federated learning (FL) study

Results 22 PFLlib issues
Sort by recently updated
recently updated
newest added

The `show_data_distribution.py` shows in a visual way how discrete the dataset is after running `generate_mnist.py noniid - dir` (`alpha = 0.1` for the Dirichlet distribution in `./dataset/utils/dataset_utils.py`)

Implemented FEMNIST dataset from leaf generation.

I generated a non-iid version of FashionMINST for 15 clients using the following command `python generate_FashionMNIST.py noniid - pat` The output of the data distribution on the terminal is as...

我在使用系统默认的配置时,只修改了--client_drop_rate=0.9,即有90%节点白训练了,但是训练结果似乎没有变化 请问这是什么原因导致的? 是模型设计的太好了吗? 我将数据集划分1000份,只用100个客户端进行训练(每次采样0.3),同时也设置0.9的退出率,发现效果和0的退出率还是相差无几 请问应该修改哪些参数可以使得对比效果更明显。

你好,我想问一下FedAvg算法的准确率为什么这么高? 实验设置:数据集使用的是Cifar10,数据分布使用的是参数为0.1的狄利克雷分布。 实验结果:FedAvg算法的准确率高达89.63%,而APFL算法的准确率才89.97% 这个实验结果应该明显是不对的,而且在FedALA算法的论文同样的实验设置下FedAvg算法的准确率是59.16%,但是我实在是找不出哪里有问题了,能麻烦作者大大帮忙看下吗 使用的实验命令如下: 生成数据集:python generate_Cifar10.py noniid - dir 启动训练:python main.py -data Cifar10 -m ResNet18 -algo FedAvg -gr 2000 -did 0 -jr 0.5 -eg 5 【PS:感谢作者大大的工作,整个仓库的代码读起来感觉非常清晰】

您好,这里聚合策略选用fedkd时,我看客户端的两个模型都是一样的结构,不是采用的有一个大模型(mentor)和一个小模型(mentee)吗