Wenqi Zhang

Results 44 comments of Wenqi Zhang

> 感谢回答,关于获取数据这一步我理解了。其实还有一个疑问,就是我看main里面的run函数似乎并没有生成接口代码相关的内容,请问关于生成接口代码的这一块是怎么自动完成的,还是说是人工将其放入tool.py的? 生成接口函数这部分没有完全开源,论文里提供了prompt和整个流程,代码涉及到一些商业所以每开源。工具接口生成这个过程最后输出的是tool.py里的每一个函数,然后做一些单元测试之类的简单筛选

with open(filename, 'r', encoding='utf-8') as f: prompt_task_dict = json.load(f) 你明确指定下编码方法试试吧 ,很容易debug

我用的是微软云的openai,你要用openai官网的api稍微改下接口就可以

输入不是固定的,只是我给的例子比较少。因此gpt的输入长度限制,写不了太多例子。 意图检测是不难做的,只要你给LLM提供了意图可选范围。 1-如果意图不合理,一般要给用户提示,然后通过交互的方式让用户修正。后面版本应该会增加这个功能 2-你这个是传统做NLP那些的语义解析信息抽取的思路,大模型时代这些交给大模型做就行,不用划分这么清楚,告诉LLM要映射成啥样就可以,多写几个例子

这种问题不是我考虑的哈 Wey ***@***.***> 于2023年7月21日周五 10:19写道: > 您好,我看你的demo,有个疑问,请帮忙解答下: > 当我查询某家公司时,同一个实体公司(腾讯控股),可能有多种叫法(腾讯、鹅厂等),怎么实现识别为同一公司,给到接口查询返回结果呢? > > — > Reply to this email directly, view it on GitHub > , > or unsubscribe > > ....

> 看起来就是借助In Context Learning使得模型在不微调的情况就能准确理解特定领域的用户意图。 请问: 1、相比zero shot,ICL的方式在意图识别准确率上会带来多大比例的提升呢? 2、gpt的输入长度限制问题怎么解决呢?总不能出现个badcase就加到prompt里面 1- ICL的提升是比较显著的,具体得用benchmark做评估。我觉得关键也不是ICL,而是使用大模型来管理和调用数据,把例子放在prompt只是让模型性能更好些而已 2- 其实常见的需求就那几种,完全可以把一些看meta case‘在prompt。或者用这些case的数据微调模型,把这种能力内化到模型参数

论文里提供了一些prompt基本是可以用,代码这块涉及一些商业项目,现在没法开源

感谢建议。我们会在下版本上增加其他模型接口

Firstly, openai's json function is just an interface, which saves the time of writing instruction. Our project is designed for a specific business scenario, first let LLM design a set...