原力好运
原力好运
 当我运行将batch_size 调整到 64以上的时候遇到是那个错误
但是当我将batch_size大小调整到16的时候我遇到的是一个关于显存不足的错误: Traceback (most recent call last): File "/root/miniconda3/envs/oldMotor/lib/python3.6/site-packages/tensorflow/python/client/session.py", line 1334, in _do_call return fn(*args) File "/root/miniconda3/envs/oldMotor/lib/python3.6/site-packages/tensorflow/python/client/session.py", line 1319, in _run_fn options, feed_dict, fetch_list, target_list, run_metadata) File "/root/miniconda3/envs/oldMotor/lib/python3.6/site-packages/tensorflow/python/client/session.py", line 1407, in...
 这或者也能成为您指导我的线索,由于我通过matlab仅仅生成了Excel .xlsx Files文件,所以我将您原本的 .csv 文件全部换成了.xlsx文件进行读取,但是我感觉这个无法构成我错误的原因,但如果这能启发您请给我回复
其实还有一个可能的错误,您使用的是windows环境,而我使用的unbuntu16.0.4 ,请问这个是否也可能是我错误的原因呢?
您好,在我更换了一个更大的显卡,Tesla V100-32GB 环境是cuda 12.2 ,python 3.6.3 tensorflow-gpu=1.13.1 解决了以上的两个错误,可以判断是因为显存大小的问题 但是当我解决了以上两个问题的时候我遇到了另外一个问题  我搜索到的结果的是输入的input太小,做卷积运算的时候input会越来越小,过于小会“无法卷”,报错。 目前的解决方案估计是更换神经网络每层的大小,请问这是否意味着一开始的层数和每层的输入和输出大小有误。
这样设置还是报这个错误,但是是不同的地方
破案了数据不干净,每个句子前面带有一个空格就报这个错,删除空格就没有事了
https://blog.csdn.net/weixin_44671324/article/details/134872757 这个问题解法如下,但是速度无比的慢,有无大哥分享下载好的数据
请问你要到了吗,有的话能给我发一份吗,邮箱地址:[email protected]
兄弟,你解决这个问题了吗?可以一些做做这个项目,加我Q 3269327552一起做