huangdacheng
huangdacheng
请问一下MMI 训练时 和dialogModel的区别是什么啊 ?
MMI Model也是一个基于GPT2的生成模型,将每条训练数据进行"逆序"拼接,然后输入到网络中。该模型主要用于计算Dialogue Model生成的所有候选response相对于dialogue history的loss。 代码里没有看到 这个loss 是在哪里算的?
message Obj { message KeyValue { optional string key = 1; optional string value = 2; } repeated KeyValue http_key_value = 1; } 这种方式能支持吗?
但是我使用 Map objectMap = ProtobufIDLProxy.create(protoCotent);的 时候 是报错的哦。 Exception in thread "main" java.lang.RuntimeException: Message 'Http' depend on message 'KeyVal' is missed at com.baidu.bjf.remoting.protobuf.ProtobufIDLProxy.create(ProtobufIDLProxy.java:206) at com.baidu.bjf.remoting.protobuf.ProtobufIDLProxy.create(ProtobufIDLProxy.java:197) at com.baidu.bjf.remoting.protobuf.ProtobufIDLProxy.create(ProtobufIDLProxy.java:193)
String protoCotent = "package so_rtrs_req_res; " + "option java_package = \"com.rtrs.proto\"; " + "option java_outer_classname = \"ReqRes\"; " + " " + "message Http " + "{ " + "message...
我以为2.1.4是最新版本呢。我用的是2.1.4
Ok. Thank you for your nicd share
> @wulaoshi > > #### Pytorch转换代码及模型下载 > 在Ubuntu 16.10,Python 3.6.10,Transformers 2.11.0,Pytorch 1.4.0和Tensorflow 1.14.0环境测试通过,其他环境未测试,如果有需要,大家自己稍作修改代码应该就能运行。 > 具体情况请查看代码:https://github.com/ghosthamlet/gpt2-ml-torch 请问有验证过 转换后的效果和 原来的gpt2-ml 是否一致啊 ?
> finetune教程 https://github.com/wind91725/gpt2-ml-finetune- 觉得奇怪的地方, train和 inference的时候使用的vocabulary 不是同一个文件的?
> 用的是不是tokenization/clue-vocab.txt? 我的理解 应该是 train和inference 应该是需要是同一个 vocabulary,因为原来作者给的5G模型 用的是 tokenization/clue-vocab.txt,那应该finetuning的时候 也使用这个