ChatGLM-6B
ChatGLM-6B copied to clipboard
[Feature] 添加异步上下文管理器,请求响应模型与相应的类型注解
Is your feature request related to a problem? Please describe.
你好!我是一位FastAPI的后端开发者,看到这个项目非常开心。 我发现api.py中的接口没有使用模型,而是直接调用了Request类,并且直接启动应用的话启动时间会稍微慢一些。
Solutions
我添加了请求和响应的模型,为它们添加了类型注解,顺便使用了异步的上下文管理器,启动速度稍微快了一些的同时,可以直接在接口文档localhost:8000/docs中直接调用这个接口。
链接:https://github.com/Whitroom/ChatGLM-6B

Additional context
希望你能看到这个issue,并给予一些评价。
可以提PR
已经有Pull Request链接了,在547,请开发者查阅😀
可以提PR
这个议题开放的时间有些长,有空的话麻烦看一下