bilibot
bilibot copied to clipboard
A local chatbot fine-tuned by bilibili user comments.
林哥你好,我看了你的视频对这个B的兴趣很大,想要把它在我自己本地的Linux服务器上运行玩玩。 但目前最大的问题是你使用的开发框架似乎只有mac电脑可以使用,所以希望你可以提供可以在linux运行的方法。
执行python -m main.start_qa_dialogue, 显示:段错误(核心已转储) 而使用root权限执行 sudo python -m main.start_qa_dialogue, 显示:段错误 以下是我的系统默认分配的资源(执行ulimit -a查看): real-time non-blocking time (microseconds, -R) unlimited core file size (blocks, -c) unlimited data seg size (kbytes, -d) unlimited...
林哥,我想问一下M1 16G 的MacBook Air,想用您的这套代码Finetune一个模型,把batchsize和layer都调很低,大概得训练多久呢?还是说直接跑不动呢?实在没钱换M3了。那要是租云服务器的Nvida的卡,您这套基于mac的代码还能跑通吗?
为什么它不能运行嘞
首先我是先从10.16系统下安装Anaconda开始,直到看到报错信息说mlx需要macOS 13.5+以上版本,于是更新系统到13.6 之前遇到的问题1,无法安装mlx 执行 `conda install -c conda-forge mlx` 解决 ``` Channels: - conda-forge - defaults Platform: osx-64 Collecting package metadata (repodata.json): done Solving environment: done ## Package Plan ##...
好像mlx扩展没有windows版本? https://pypi.org/project/mlx/#files 看了下这里只提供了macOS版本的扩展
假如我有问题-答案的问答对,我怎么将数据转换成jsonl格式的文件呢? 希望作者可以科普下。 感谢!我跑通了作者视频中的效果。 另外对于我们微调好的模型,怎么转换成ollama可以用的格式呢?因为很多应用接的ollama,要是作者可以出一期视频就好了。 感谢。
python -m mlx_lm.lora --model models/Qwen1.5-32B-Chat --data data/ --train --iters 1000 --batch-size 16 --lora-layers 12 报错 anaconda3/bin/python3: Error while finding module specification for 'mlx_lm.lora' (ModuleNotFoundError: No module named 'mlx_lm') 去掉 python...
1. 是否可以提供已经训练好的 adapter 文件直接使用,而非从头开始训练? 2. 或者,是否可以将模型/adapter 文件放在 Huggingface 仓库中进行发布、托管?