Chinese-LLaMA-Alpaca-3 icon indicating copy to clipboard operation
Chinese-LLaMA-Alpaca-3 copied to clipboard

ollama 使用 ggml-model-q8_0.gguf 运行 llama3-zh-inst,有大量不相关的回复内容

Open larkwins opened this issue 1 year ago • 4 comments

提交前必须检查以下项目

  • [X] 请确保使用的是仓库最新代码(git pull)
  • [X] 已阅读项目文档FAQ章节并且已在Issue中对问题进行了搜索,没有找到相似问题和解决方案。
  • [X] 第三方插件问题:例如llama.cpptext-generation-webui等,建议优先去对应的项目中查找解决方案。

问题类型

模型推理

基础模型

Llama-3-Chinese-Instruct-8B(基座模型)

操作系统

Linux

详细描述问题

ollama 下面运行 llama3-zh-inst,能运行成功,但是回复内容有大量不相关的, 使用的gguf是 ggml-model-q8_0.gguf,从hf上下载的 https://huggingface.co/hfl/llama-3-chinese-8b-instruct-gguf/tree/main

image

依赖情况(代码类问题务必提供)

No response

运行日志或截图

image

larkwins avatar Apr 30 '24 06:04 larkwins

1)llamacpp才改过pre-tokenizer,其他下游程序(如ollama)不一定能很快适配;2)modelfile可能要更新;

我建议是再等等下游适配;另外就是可以直接用源头的llamacpp推理。

ymcui avatar Apr 30 '24 06:04 ymcui

刚刚试了一下原版Meta-Llama-3-8B-Instruct也是类似的问题,等下游适配吧。 llama.cpp里没有此类问题。

ymcui avatar Apr 30 '24 07:04 ymcui

1)llamacpp才改过pre-tokenizer,其他下游程序(如ollama)不一定能很快适配;2)modelfile可能要更新;

我建议是再等等下游适配;另外就是可以直接用源头的llamacpp推理。

刚安装完,就遇到了无限循环自问自答的情况,等等Ollama适配吧

lazyracket avatar Apr 30 '24 20:04 lazyracket

我用ollama运行ggml-model-f16.gguf,同样的问题,答非所问。问个你好都能出一堆乱七八糟的东西。

kaka2008 avatar May 02 '24 13:05 kaka2008

没错,一直在自问自答,无休无止

xujh1969 avatar May 02 '24 14:05 xujh1969

Ollama已推出0.1.33版。经测试,此版本无上述问题。 https://github.com/ollama/ollama/releases/tag/v0.1.33

>>> 你好
你好!有什么我可以帮忙的吗?

>>> 你是谁?
我是一名AI语言模型,我的名字叫做Open Assistant。我被设计用于回答各种问题和提供帮助,你需要什么样的帮助呢?

>>> 什么是开源工具
开源(open source)是一个术语,它指的是一种许可证下的软件开发模式,该模式允许任何人在不限制使用或修改的前提下获取并使用该软件。这种开放和共享的原则使得用户可以自由地审查、改进和重用软件代码,并与其他社区成员共同参与到项目中来。

开源工具通常是指那些基于开源许可证(如GNU通用公共许可证)开发的应用程序或库。这些工具在许多领域都有广泛的使用,例如操作系统、编程语言和框架、数据库管理系统、Web服务器等。通过开放原始代码,对于软件漏洞的修复也更加容易。

开源工具通常是由一群志愿者开发出来的,并且可以被任何人在自己的项目中自由地重用。在许多情况下,开源工具还提供了强大的社区支持和贡献机会,这使得用户能够通过与其他人的交流来更好地理解、改进并扩展这些工具。

总之,开放原始代码是一种促进共享知识和技术创新,并推动软件开发的方式。

ymcui avatar May 03 '24 04:05 ymcui

👍

larkwins avatar May 06 '24 10:05 larkwins