chenyunshan

Results 12 issues of chenyunshan

Hi , MaximumEntropy. I run your code on pyTorch==0.4 cuda==9.0 and it have many deprecate warning. could your tell me your pyTorch version .

Hi , spro . I run your code on pyTorch==0.4 cuda==9.0 and it have runtime error (I fixed )and many deprecate warning. could your tell me your pyTorch version ....

I see the below message and it take a long time , a occur sometime but it was so long. **INFO:tensorflow:Restoring parameters from /home/shan/seq2seq/prepare_data/model_all/model.ckpt-4000**

BertWordPieceEncoder.index_datasets 一步实现了文本到 token_id 的转换,但是文本原来标签的序列标注标签似乎没有同步转换的对应方法? 这会导致一个问题,用户只能不用 index_datasets 方法,只能自己写 tokenize + 原始标签到 wordpiece 序列对应的ner标签的方法。 所以,这个BertWordPieceEncoder似乎不太方便用于ner?特别是英文的 wordpiece 的那种?

> 从 dialogflow.com 的 Prebuilt Agent 找到 Weather 并将其导入 是不是网站升级了,没有找到相关资源,能够提供一下这个 Weather 数据呢? 仅仅找到以下页面,其中没有发现 Weather 数据 https://cloud.google.com/dialogflow/es/docs/agents-prebuilt

Traceback (most recent call last): File "transE_pytorch.py", line 255, in agent.append(trainCurve, epoch, total_loss[0]) File "/home/shan/venv/lib/python3.5/site-packages/hyperboard/agent.py", line 45, in append value = value, File "/usr/lib/python3.5/json/__init__.py", line 230, in dumps return _default_encoder.encode(obj)...

您好,看了你的代码和博客,感觉通俗易懂,很有收获。但是觉得你现在的实现,显式的循环语句有点多呀,你有思考过如何进一步提升性能吗?能否给一些提示?

你好呀,转换了一下 arXiv 的几篇技术论文,发现图片没了,公式有些会乱掉,应该是不支持。不知道这部分功能能不能改进呢?

``` File "/usr/local/lib/python3.10/dist-packages/awq/modules/linear/gemm.py", line 66, in backward if awq_ext is None: NameError: name 'awq_ext' is not defined 0%| ``` 请问是 awq 的版本的原因吗?以下是我当前版本 ``` autoawq 0.2.4 autoawq_kernels 0.0.6 ```

无论我用什么 数据集 或者 7B 还是 13B,输出目录中产生的 finetune.sh 永远不变(如下所示),都是 7B 和 Demo 的数据。 按我的理解输出目录中的 finetune.sh 应该是记录着我们微调所使用的 sh 命令。所以这里是否有一些潜在错误?甚至可能导致训练错误?