BasicTS
BasicTS copied to clipboard
A Fair and Scalable Time Series Forecasting Benchmark and Toolkit.
您好,zezhi shao,感谢提供如此完整的学习框架! 我在运行其代码的过程中遇到了如下问题,以GWNet为例,在训练的过程中很长一段时间内validationMAE的值是小于trainingMAE的,我猜测这可能和某些底层loss的计算机制有关系,由于MAE的计算中应当不会包括正则项,我十分好奇这一稳定的差异是来自于模型本身,例如对validset建模效果更好,还是由于其他原因,非常感谢!
作者您好!十分感谢您做了这个项目,收录了这么多的模型并做了数据集适配。 我想给其中一个模型增加一个额外的输入,试着看一下效果。但是我不知道哪些接口需要做出调整。我找了很久都没找到,期待作者的回复!
关于训练速度
如何多卡训练
作者你好!我现在想用几个baseline模型在大规模数据集上测试,比如GBA和GLA。但是我在H100上测试的时候,有些baseline模型会out of memory,比如一些Transformer模型(Pyraformer)。那么请问,怎么设置多卡训练呢?(我使用的服务器上,每个节点有三个H100)是不是要在baselines/Pyraformer/GBA.py文件中加入一些设置呢?(这个文件是我后加的,在您原来的文件中没有这个GBA.py)
您好,目前我观察到修改输入输出长度,需要在数据生成的时候修改。但不知道模型的初始化参数以及runner中是否也要做出相应修改?是否考虑一个快速统一修改全局的输入输出长度的接口?
GMAN
后续会在baseline里加入GMAN吗
一些问题和优化建议
您好,作者,感谢提供如此完整的学习框架!本人在使用和移植基线的过程中遇到一些问题和不便的地方,在此提出来以便您参考优化。 声明:以下问题和建议仅代表个人看法,仅供参考 问题:利用pycham直接运行data_preparation显示找不到数据集文件,运行train时也一样,做如下修改就可以运行: OUTPUT_DIR = "../../../experiments/datasets/" + DATASET_NAME DATA_FILE_PATH = "../../../datasets/raw_data/{0}/{0}.npz".format(DATASET_NAME) GRAPH_FILE_PATH = "../../../datasets/raw_data/{0}/adj_{0}".format(DATASET_NAME) DISTANCE_FILE_PATH = "../../../datasets/raw_data/{0}/distance_{0}".format(DATASET_NAME) 优化建议: 1.数据集的归一化和反归一化:CFG.RESCALE:如果为True,表示既反归一化数据又将整个数据的标准化,如果为False,表示既不反归一化数据又将数据的每个通道标准化。可以拆解为两个变量,一个变量控制数据的标准化,一个变量控制数据和归一化和反归一化。 2. 模型训练结果表示不清:用模型名+epochs的方式所表达的直接信息不全,可做如下修改: CFG.TRAIN.CKPT_SAVE_DIR = os.path.join( "checkpoints", CFG.MODEL.NAME, "_".join([CFG.DATASET_NAME, str(CFG.TRAIN.NUM_EPOCHS)]) ) 3.项目的可视化接口不足:可在tensorboard中增加一些指标或增加预测数据保存的接口...
您好,我想问一下如果我想对训练好的embedding,例如STID训好的Identity matrix进行可视化,有么有什么方便的地方进行调用或者输出呢,谢谢!