苏剑林(Jianlin Su)
苏剑林(Jianlin Su)
> 使用1.14的時候我也依樣沒問題 > 但使用新版的tf 2.2 > evaluate的時候precision 會一直都是1 > recall是0 > loss 會降不下來 那就不用2.2
错误信息贴详细点?还真没碰到过类似错误~
感觉你使用的keras或tf版本,并不是你报告的版本。建议你在脚本内插入`print(tf.__version__)`或`print(keras.__version__)`,确认你运行代码时使用的版本号。
sorry for no~ you can try https://github.com/openai/sparse_attention directly
此版本不打算再维护了,如果需要最新的keras版attention,请到https://github.com/bojone/bert4keras/blob/master/bert4keras/layers.py 参考。
可以的。`search_layer`应当逐渐被抛弃~
就是数据问题,显示没数据。。。
1、tf 2.x,用TF_KERAS=1,勉强能用; 2、30系列,包括更高级的A100,最佳的tf版本是1.15,这是nvidia自己说的:https://developer.nvidia.com/zh-cn/blog/accelerating-tensorflow-on-a100-gpus/
简单来说,就是nvidia自己维护的tf分支,才是对gpu支持最好的tf,而nvidia自己维护的tf有1.15并且支持cuda11并且还是对新显卡支持最好的tf
曾经探索过,还未成功。后面我再尝试尝试。