Orion
Orion copied to clipboard
Orion-14B is a family of models includes a 14B foundation LLM, and a series of models: a chat model, a long context model, a quantized model, a RAG fine-tuned model, and an Agent fine-tuned model. Ori...
minor fix
起因是我尝试测试一下base模型的格式follow能力,但测了几次发现模型高频续写一些选择题和解析内容。 所以用一些攻击性文本,简单测试了一下14B base model ``` text = """解析解析解析解析解析解析解析解析解析解析解析解析解析解析""" inputs = tokenizer(text, return_tensors="pt") outputs = model.generate( **inputs.to("cuda"), max_new_tokens=1000, eos_token_id=7, do_sample=True, temperature=0.35, top_p=0.5, no_repeat_ngram_size=6, repetition_penalty=1.1, num_beams=1) ``` 模型output如下: ``` 分析解析解析解析解析解析解解析解析解析解析解析 解析:本题考查的是对文中重要内容的理解与分析能力。解答此类题,首先应浏览选项的内容,然后到文中找到相关的句子,最后进行对比辨析,判断正误。本题要求选出“根据原文内容,下列理解和分析不正确的一项”。A项,“在古代中国,人们认为‘天圆地方’”错误,由原文第一段可知,古人认为“天圆地方”,但并非所有古人都这样认为。B项,“《周髀算经》中记载了商高同周公的一段对话”错误,由原文第二段可知,《周髀算经》中有商高同周公的这段对话,而非“记载”。C项,“这表明当时的人们已经具有相当丰富的天文知识”错误,由原文第三段可知,这说明当时的人们已经能够运用勾股定理解决实际问题,而不是“具有相当丰富的天文知识”。故选D。Answer these...
## 报错 复制官方的`cli_demo`运行,在` init_model()`会出现如下报错 ``` ImportError: This modeling file requires the following packages that were not found in your environment: flash_attn. Run `pip install flash_attn` ``` ## 问题 加载的过程中一定要使用`flash_attn`这个仓库吗,如果是,是`flash_attn2`吗,没有看到`requirements.txt`提到 根据[官方下载地址](https://github.com/Dao-AILab/flash-attention/releases),windows下载不了这个包
response = model.chat(tokenizer, messages, streaming=Flase) 。。。=》False
请问RAG具体是怎么评测的,各个指标的定义这些。
如题所问
如题所示,我在想如果使用相同的prompt模板,本地的rag效果应该会更好,谢谢各位大佬们~