Teng Tu
Teng Tu
address to issue #147
有道理,但还需要一些讨论: - json文件也有被下载的需求,这对huggingface与服务器部署用户来说比较方便 - 这个gr.file()好像有最小长宽的要求?单开一个功能标签的话怎么放都有点丑,不知道有什么方法可以让它好看一些 - “点按按钮-将所有上文生成chathistory.md文件-执行下载”,好像gradio不支持直接这样做。硬写的话我不太会。
> 由于主分支又产生了极大的变动,这里可能需要更多改动。 ok,但我可能得周六再改了
address to issue #184
在readme中有注明,虽然推理(inference)是不需要 deepspeed 的,但是微调还是需要 deepspeed 库的,且目前微调仅推荐在Linux环境下使用
截图汇报的情况是无异常的呀,这就是模型加载的一个过程,确实将花上几十秒的时间
对于markdown格式具体有什么需求吗?以什么形式来区别ChatGPT和用户的内容?如果可以的话,可以手动编辑一条作为样例吗?
可是标准的markdown语法并不支持像gradio.chatbot那样以文字气泡的形式记录,亦无对于分栏、居右等格式的语法。因此,还是建议您给出一条您所期望的markdown形式。
并不是项目的开发者,只是给您一些建议: - 核心报错为 `chunk = json.loads(chunk[6:])` 代表错误发生在 api 反馈结果异常上。 - 如果您可以排除网络异常、api_key失效等问题,我认为问题可能出现在您的这条提问本身的token数量超过了api所能接受的最大token数量,您可以尝试分段输入代码看看该错误是否还会出现。 - 如果确实因为这个问题的话,您可以考虑打上 bug 或 feature request 的tag
4. The load of prompt template is a bit complicated, so I simplified the operation a bit. 5. History and chatbot have some repetitions in the code, and I am...