roj234
roj234
cc10e14可以复现
getChunk在单人下会和本地服务端同步区块,如果本地服务端的TPS小于20客户端的tick就会等服务端赶上 PS: mixin掉!
我不是作者。 在huggingface的仓库里写config.json,然后就可以加参数--model BlinkDL/rwkv-4-raven,而不需要这边做什么改动 因为用的是AutoModel.from_pretrained 举例 { "_name_or_path": "THUDM/chatglm-6b", "architectures": [ "ChatGLMModel" ], "auto_map": { "AutoConfig": "configuration_chatglm.ChatGLMConfig", "AutoModel": "modeling_chatglm.ChatGLMForConditionalGeneration", "AutoModelForSeq2SeqLM": "modeling_chatglm.ChatGLMForConditionalGeneration" }, "bos_token_id": 150004, "eos_token_id": 150005, "hidden_size": 4096, "inner_hidden_size": 16384, "layernorm_epsilon":...
https://github.com/roj234/ChatGLM-webui/tree/rwkv 话说rwkv的PIPELINE的sample_logits不知道为什么很卡 还有猫娘真的很哲学,而且出现概率并不是很低