bert-utils
bert-utils copied to clipboard
一行代码使用BERT生成句向量,BERT做文本分类、文本相似度计算
请问预测的相似度和不相似度的百分数具体是怎么计算的,最后一层的处理步骤能说下吗
代码执行到 sim.set_mode(tf.estimator.ModeKeys.PREDICT)时候抛错: , '_keep_checkpoint_max': 5, '_task_type': 'worker', '_train_distribute': None, '_is_chief': True, '_cluster_spec': , '_evaluation_master': '', '_save_checkpoints_steps': None, '_keep_checkpoint_every_n_hours': 10000, '_service': None, '_num_ps_replicas': 0, '_tf_random_seed': None, '_master': '', '_num_worker_replicas': 1, '_task_id':...
你好, 当我在运行你的句向量生成代码时, 得到以下信息:  我的环境是: 系统: Ubuntu 18.04 用户: root python: 3.6 tensorflow: 1.11, INFO:tensorflow:Could not find trained model in model_dir: /tmp/tmpkpgegq1e, running initialization to predict. 我理解的是, 无法找到相关模型, 所以bert自己随机初始化了权重, 即该权重没有经过任何训练,...
Bert-as-service生成、普通bert直接生成、还有您提供的方法这三种 这三种方法生成的句向量有区别吗? 我理解,以为都是从extract_features.py 出来的 后面调用应该也是一样的, 所以没有区别。 但是对原理细节理解比较粗浅,不敢贸然下结论 还请指点
博主您好,我在使用exact_feature方法时在tmp/reslt生成graph后,半小时后还是无法输出局向量,请问这个时间正常吗?或者是第一次最多需要多久才能输出局向量?
您好,我只需要得到句向量,但是在GPU环境下出问题了,您能帮解决一下吗?没有报错,但是程序无法继续运行,在cpu环境下没有问题,谢谢。 2019-06-03 11:20:11.971647: W tensorflow/compiler/xla/service/gpu/llvm_gpu_backend/nvptx_backend_lib.cc:134] Unknown compute capability (7, 5) .Defaulting to telling LLVM that we're compiling for sm_30 2019-06-03 11:20:13.429726: W tensorflow/compiler/xla/service/gpu/llvm_gpu_backend/nvptx_backend_lib.cc:105] Unknown compute capability (7, 5) .Defaulting to...
句向量問題
請問你改完的extract_feature.py和官方提供的源碼,在功能上有差別嗎?