Adam

Results 10 comments of Adam

> 1. 是否可以提供已经训练好的 adapter 文件直接使用,而非从头开始训练? > 2. 或者,是否可以将模型/adapter 文件放在 Huggingface 仓库中进行发布、托管? +1

> 常见问题Google一下就有解了 谢谢不是回答的回答。解决了,下载模型是真的大。你跑起来了吗? 推荐配置是多少,我的m2 24g内存不知道行不行

> 不训练直接量化加速后也能跑。 ![2024-05-15 12 40 08](https://private-user-images.githubusercontent.com/133982020/330662294-0a5e2e50-3425-4526-b9d9-65f3da682d77.jpg?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MTU3ODQ2MTYsIm5iZiI6MTcxNTc4NDMxNiwicGF0aCI6Ii8xMzM5ODIwMjAvMzMwNjYyMjk0LTBhNWUyZTUwLTM0MjUtNDUyNi1iOWQ5LTY1ZjNkYTY4MmQ3Ny5qcGc_WC1BbXotQWxnb3JpdGhtPUFXUzQtSE1BQy1TSEEyNTYmWC1BbXotQ3JlZGVudGlhbD1BS0lBVkNPRFlMU0E1M1BRSzRaQSUyRjIwMjQwNTE1JTJGdXMtZWFzdC0xJTJGczMlMkZhd3M0X3JlcXVlc3QmWC1BbXotRGF0ZT0yMDI0MDUxNVQxNDQ1MTZaJlgtQW16LUV4cGlyZXM9MzAwJlgtQW16LVNpZ25hdHVyZT0xMmMxZmQyYTFmODhmNWRiYjExZGE1MDIyMjY4N2JlM2RmMmM0OTVkNTUzMTk3YWU5OTc2OGY5YzczN2VkOTU1JlgtQW16LVNpZ25lZEhlYWRlcnM9aG9zdCZhY3Rvcl9pZD0wJmtleV9pZD0wJnJlcG9faWQ9MCJ9.2dkqbxrz0G6cEnUlS7nft0boPBooZXNS2EERPu8RiYs) 怎么做到的?Qwen1.5-32B-Chat-Adapters这个文件怎么搞到

我试试,今天出门前运行了微调,回来一看直接重启了.放弃放弃,·

直接执行 python start_qa_dialogue.py,生成了个转化后的 ----- 这个怎么做到的? tokenizer_config.json 自己写一个?

对,还要改一下目录地址,真的跑起来了,用结果谢谢你 ``` (bilibot) ac@ACs-Mackbook bilibot % python ./main/chat.py None of PyTorch, TensorFlow >= 2.0, or Flax have been found. Models won't be available and only tokenizers, configuration and file/data utilities...

我好奇,模型没有学习,只是压缩了一下,怎么就有这效果呢? ``` 用户: 为什么在没有微调的情况下,只是对大模型进行了个压缩量化就能够对B站的内容进行这么大的适配?是不是这个千问这个模型里面本来就有B站的这种话语模式啊? 回答: 你这是哪儿听来的小道消息啊,微调和压缩量化那是两码事。这模型虽然大,但人家肚子里装的货可不是随机生成的,里面的算法对各种内容的理解能力可不是一压缩就有B站味的。这得是经过大量B站数据的喂养,学习了用户的习惯和梗库,才有了所谓的"适配"。别听风就是雨,这模型的智慧可不是一压缩就有的。 (Time 6186 ms) ```

在 Docker 中,要让容器内的应用访问宿主机的 localhost,您可以使用几种方法。以下是一些常见的方法: 使用特殊的 DNS 名称: Docker 为容器提供了一个特殊的 DNS 名称 host.docker.internal,它指向宿主机的 IP 地址。您可以在容器内部使用这个名称来访问宿主机的服务。 所以我用 http://host.docker.internal:1234/v1 替换了 http://localhost:1234/v1 It works!

> npm uninstall -g homebridge-aqara Thanks, thats very helpful!

确实有点发费周章,不过QLoRA还是可以搞一下的,毕竟还是更finetune