Baichuan2
Baichuan2 copied to clipboard
模型推理输出时候的函数api接口有吗,有什么参数,各参数含义是什么的文档呢
像base版本推理代码:
from transformers import AutoModelForCausalLM, AutoTokenizer tokenizer = AutoTokenizer.from_pretrained("baichuan-inc/Baichuan2-13B-Base", trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained("baichuan-inc/Baichuan2-13B-Base", device_map="auto", trust_remote_code=True) inputs = tokenizer('登鹳雀楼->王之涣\n夜雨寄北->', return_tensors='pt') inputs = inputs.to('cuda:0') pred = model.generate(**inputs, max_new_tokens=64, repetition_penalty=1.1) print(tokenizer.decode(pred.cpu()[0], skip_special_tokens=True))
里面model.generate() 除了这些参数,还有什么可以调节的参数,含义是什么,在哪看啊?
源码里有2个config文件可以看一下
源码里有2个config文件可以看一下
您好,可以回答一下api文档里文件管理上传文件接口错误码500的问题吗?