Ares
Results
2
issues of
Ares
Hi, I have a question about the experimental results in table1, are three settings of slidding windows tokens using positions assigned to[0,1,2,3...window_size] ?
我看论文里选了llama拓展到32k长度的做摘要评估,然后其他的一些longllama,gpt之类的可能多少都有指令微调过,已经有了对相应任务的理解,不确定你们选的这个llama32k是不是以language model的形式拓展长度的,如果是这样,怎么确定比较公平性哇? 或者有没有考虑引入llama-chat版本还有一些其他的指令微调且长度拓展的llama模型做评估哦