PaddleNLP
PaddleNLP copied to clipboard
👑 Easy-to-use and powerful NLP and LLM library with 🤗 Awesome model zoo, supporting wide-range of NLP tasks from research to industrial applications, including 🗂Text Classification, 🔍 Neural Searc...
### PR types New features ### PR changes Models ### Description - 新增信息抽取封闭域模型 - 提供了一套统一的数据格式,适配实体抽取、关系抽取、事件抽取、观点抽取等抽取类型任务。 - 本项目提供了各任务训练、评估、静态图导出以及python端部署的具体示例。 主要代码结构如下: ```text ├── deploy │ └── python │ └── predict.py # python端部署脚本 ├──...
### PR types Bug fixes ### PR changes APIs ### Description - 修复Taskflow UIE在半精度FP16推理时`device_id`失效的问题 #2952 - uie_predictor新增device_id用于指定GPU ID
最近在学习nlp客户机器人,在ai studio上有不少案例,但发觉通用性不强,有没有简单点的对话机器人案例,我只要上传txt或excel问答,经过短信训练,马上就能生成对话了呢?多谢。
在Taskflow("question_answering")中会自动使用gpt-cpm-large-cn ,但是 由于太大了Out of memory error on GPU,也不支持多个GPU, 所以我找到还有一个 gpt-cpm-small-cn-distill 模型,但是通过model参数指定,发现配置里没有。我该如果配置才能使用gpt-cpm-small-cn-distill?
对于文本使用wordtag进行信息抽取后,如 生成readme中的 [作品类_实体][肯定词|是][人物类_实体][场景事件|执导][作品类_概念|电影] 对于这样的模板,我们应该如何进行对句子的匹配呢?readme中没有放实际的例子。 对于wordtag_ie中的set_schema,必须要有实体间的关系,但我们并不需要关系,word_tag也不会抽取关系。 我们如何在不涉及关系的前提下,对句子进行模板匹配,如[作品类_实体][肯定词|是][人物类_实体][场景事件|执导][作品类_概念|电影] 谢谢您
(1)semantic-search搭建起web服务后,其前端页面搜索框中:总是会在输入下一次搜索内容后,跳回上一次的搜索输入内容。。 请问是什么情况?该如何解决? (2)btw:再就是有个小小的建议期望: 搜索框能否通过js还是什么办法 实现我点击搜索框,默认的框内文字就不显示了;  因为,现在这个在代码中设定的框内默认内容 需要人手动删。 上述(1)、(2)在实际业务场景中交互体验频率会比较高,看老师们有什么好的解决办法,感谢!
### PR types New features ### PR changes Models ### Description Support GPTForGeneration for dygraph. - [ ] support attn_mask as input - [ ] support stop with eos_id
### PR types New features ### PR changes Models ### Description - Add new model GPTJ - Use example ```python import paddle from paddlenlp.transformers import GPTJForCausalLM, GPTJTokenizer tokenizer = GPTJTokenizer.from_pretrained('EleutherAI/gpt-j-6B')...
my_ie = Taskflow("information_extraction", schema=schema, task_path='./uie/checkpoint/model_best', device_id=1) 指定device_id=1运行在GPU1上,实际会在GPU0上拉起一个进程。当进行第一次推理pprint(my_ie("城市内交通费7月5日金额114广州至佛山"))之后,又会在GPU1上拉起一个进程。如图。  如果不使用fp16,就没有这个问题。猜测应该是使用fp16时onnx的原因。是否可以后续统一到指定的GPU上?
log如下: $ sh DocumentReview/UIETool/run.sh [2022-08-02 14:28:41,079] [ INFO] - Downloading resource files... INFO 2022-08-02 14:28:41,079 download.py:117] unique_endpoints {''} INFO 2022-08-02 14:28:41,079 download.py:154] Found uie-base/vocab.txt INFO 2022-08-02 14:28:41,080 download.py:117] unique_endpoints {''}...