WwZzz
WwZzz
> 是的,确实像您所说我所构建数据分布是non-iid且imbalance的。很大概率会导致某次反向传播出现了nan数值。是否可以在聚合时加上判断,来消除这类错误。 可以的,我在下个版本中加上自动消除nan的可选项
> > > 是的,确实像您所说我所构建数据分布是non-IID且不平衡的。很大概率会导致某次反向传播出现了nan数值。是否可以在聚合时加上判断,来消除这类错误。 > > > > > > 可以的,我在下个版本中加上自动消除nan的可选项 > > 请问这个问题已经更新了吗 你好,已经在新版中更新了,具体位置在flgo.algorithm.fedbase.BasicServer.aggregate中增加了nan的检测
> > > > > 是的,确实像您所说我所构建数据分布是non-IID且不平衡的。很大概率会导致某次反向传播出现了nan数值。是否可以在聚合时加上判断,来消除这类错误。 > > > > > > > > > > > > 可以的,我在下个版本中加上自动消除nan的可选项 > > > > > > > > > 请问这个问题已经更新了吗 >...
> > > > > > > 是的,确实像您所说我所构建数据分布是non-IID且不平衡的。很大概率会导致某次反向传播出现了nan数值。是否可以在聚合时加上判断,来消除这类错误。 > > > > > > > > > > > > > > > > > > 可以的,我在下个版本中加上自动消除nan的可选项 > > >...
This error seems to come from model.to( torch.device(...) ) where model is an instance of torch.nn.Module(...). I think it may be related to the version of your gpu drivers and...
你好,感谢您的反馈。这项报错似乎是因为client的train_data大小是0引起的。当我尝试了一样的参数设置 ```python import flgo import flgo.benchmark.cifar10_classification as cifar import flgo.benchmark.partition as fbp task = 'cifar10_dir1_800' flgo.gen_task_by_(cifar, fbp.DirichletPartitioner(num_clients=800, alpha=1.0, imbalance=0.7), task) # run import flgo.algorithm.fedavg as fedavg runner = flgo.init(task, fedavg,...
> ``` > class Server(flgo.algorithm.fedbase.BasicServer): > def initialize(self, *args, **kwargs): > # 频率fi > self.fi = [1] * len(self.clients) > self.entropy = [0] * len(self.clients) > self.xuhao_client = [i for...
> 你好,我还想请问我是否可以获得不进行模型传输的客户端的模型参数,我将如何调用以得到所有客户端每轮训练后的模型参数 你好,默认的实现为用户本地训练后不保存训练好的模型,以防止过多的内存\显存占用;若要不传输就访问,则需要在打包发送之前在本地保存训练好的模型self.local_model=model,然后服务器可以通过self.clients[i].local_model来访问
> > > 你好,我还想请问我是否可以获得不进行模型传输的客户端的模型参数,我将如何调用以得到所有客户端每轮训练后的模型参数 > > > > > > 你好,默认的实现为用户本地训练后不保存训练好的模型,以防止过多的内存\显存占用;若要不传输就访问,则需要在打包发送之前在本地保存训练好的模型self.local_model=model,然后服务器可以通过self.clients[i].local_model来访问 > > 请问能设置每个客户端上本地数据的数据量吗 你好,要设置具体数量的话,可能需要手动自己写一个Partitioner,这里我提供了一个例子: ```python import flgo.benchmark.mnist_classification import flgo.benchmark.partition as fbp import numpy as np # 1. Define the...
你好,hierFL因为它的架构跟传统一对多的中心服务器架构不同,因此benchmark设置跟横向联邦不是共享的。hierFL目前还没有写tutorial,后面会写相关的tutorial。若你想要尝试hierFL的运行,可以运行以下代码 ``` import flgo import flgo.experiment.logger import os bmkname = 'hier_mnist' # benchmark的名称 bmk_config = './config_hier_mnist.py' # 准备的配置文件路径 if not os.path.exists(bmkname): bmk = flgo.gen_hierarchical_benchmark(bmkname, bmk_config, target_path='.', data_type='cv', task_type='classification') import flgo.algorithm.hierarchical...