BSWaterB

Results 12 comments of BSWaterB

关于各种栈的使用,我有点小疑惑。 在 entry.asm 里用汇编让 sp 寄存器指向了 64KB 的那块空间,在 batch.rs 中又创建了 KernelStack 和 UserStack 两块 8KB 的空间,Trap Context 应该只是保存在 KernelStack 这片区域中,那创建的这个 UserStack 又是用来干什么的呢? 在 __alltraps 的实现里,使用 csrrw sp, sscratch, sp 交换...

> 请问“这是因为当 CPU 在 U 态接收到一个 S 态时钟中断时会被抢占,这时无论 SIE 位是否被设置都会进入 Trap 处理流程”该怎么理解?中断是否被屏蔽是硬件的工作吧?为什么SIE为0也会进入trap_handler呢? sstatus 下的 SIE 位只控制着在 S 模式下的中断使能,如果 sstatus.SIE 标记为 0,则在 S 模式下不会响应中断;但如果控制流在 U 模式下时,sstatus.SIE 位是不会影响中断响应判断的,此时任何 S 特权级的中断都会被响应。

开篇提供的 vm 镜像似乎并没安装 objcopy,需要使用如下语句来安装 ```$ cargo install cargo-binutils``` ```$ rustup component add llvm-tools-preview``` 否则可能出如下的错误 ```Failed to execute tool: objcopy No such file or directory (error 2)```

回翻了一下开篇,发现原来是自己漏掉工具链安装那一步了 ORZ

> 请问 这里的 0x100c: ld t0,24(t0) 。 ld是什么意思? 代表是 load 指令

把 `Firefly/train_qlora.py` 中的 `model = AutoModelForCausalLM.from_pretrained()` 改为以下内容: ``` # 加载模型 model = AutoModelForCausalLM.from_pretrained( args.model_name_or_path, device_map="auto", load_in_4bit=True, torch_dtype=torch.float16, trust_remote_code=True, quantization_config=BitsAndBytesConfig( load_in_4bit=True, bnb_4bit_compute_dtype=torch.float16, bnb_4bit_use_double_quant=True, bnb_4bit_quant_type="nf4", llm_int8_threshold=6.0, llm_int8_has_fp16_weight=False, ), ) ``` 然后,将启动命令由 `torchrun...

@yangjianxin1 建议添加单机多卡下出于均摊显存目的的微调方法

因为中文的编码是由多个字节构成的,例如 utf8 里的中文大部分由 3 字节构成,而 BPE 拆分的时候是以单个字节为单位拆分的,一个汉字可能在编码层面上被截断成了三份甚至更多,因此词表里无法正常显示中文,但不影响整个 input_ids 数组最终 decode 出来的效果

Taking the execution of the world template ```base_the_ville_isabella_maria_klaus``` as an example, in the command line, you need to start by using the ```run [steps]``` command. This command will first make...