Jiaxiang Cheng

Results 17 comments of Jiaxiang Cheng

> > > > 就是我看代码中,每个发动机数据是切片为好多个子数据(每个是3行),然后都是单独输入进网络的,一次只处理一个数据 所以你是指没有batch,是,没有用batch训练

> 是的,不过我想这样只是运行效率问题,对结果没有太大影响,还有一个问题想请教您一下,就是关于第一步CNN,时间窗是不是取的太小了一点,只有t-1~t+1,这样是不是就没有用transformer的必要了,因为本来transformer就是为了应对长序列的问题,不过我看原论文里也没有提具体时间窗设置的事情,不知道您之前在尝试的时候是否有考虑过这个问题,我也是刚看这篇文章,非常感谢大佬您的代码分享。我现在研一,刚刚接触RUL这个方向,有些问题可能自己理解的也不深,大佬见谅 > […](#) > ------------------ 原始邮件 ------------------ 发件人: "Jia-Xiang ***@***.***>; 发送时间: 2022年7月20日(星期三) 下午4:08 收件人: ***@***.***>; 抄送: ***@***.***>; ***@***.***>; 主题: Re: [jiaxiang-cheng/PyTorch-Transformer-for-RUL-Prediction] 找不到模型中decoder模块 (#2) 就是我看代码中,每个发动机数据是切片为好多个子数据(每个是3行),然后都是单独输入进网络的,一次只处理一个数据 所以你是指没有batch,是,没有用batch训练 — Reply to this email directly,...

> 您好,我用你的code复现了一下这篇文章,有2个问题我觉得导致了rmse比较低。虽然时隔2年了,但觉得还是可以给您说一下。 > > 1. 您的gcu那里的cnn_layer应该使用1d,in_chans=14, out_chans=14, kernel=3, stride = 1, padding=1. 因为他这一步是想要得到local feature,所以要在time domain做1d卷积,然后为了让输入输出的shape一样,加了1的padding。 > 2. 在上一步的更正下,输入不应该只有3个timestep,因为在gcu之后去transformer是为了得到long sequence feature,输入是3的话,这个transformer用处就不大了。我在原文没看到说他们用的多长的sequence,我自己用的30的,效果还可以,基本上用128的embed dim,2个transformer layer, 4个head就有差不多文中的结果了 (11点多)。所以其实input去gcu的时候,就应该是一个sequence 是30 or 比较长的序列(假设是30,input dim就应该是batch_size x 30...

> Thanks for your code which is really useful. > > And I have a question: > > During the model definition, the input form should be (batch_size, seq_len, input_size)...

> 您好请问这里没有划分训练测试和验证么 您好,训练和测试集是分开的,验证集可根据训练效果自己划分。

Hi, I'm sorry that currently there's no implementation with Matlab.

> When I run your code,”RuntimeError: expected scalar type Long but found Int ” Please teach me how to fix this problem It's quite a common issue. Please just Google...