qepwq365
qepwq365
> 项目只训练了x64-linux,安卓属于arm64-android,指令集和平台差异都很大。整个文件不太可行,长度一般超限。常见的做法是把函数切分出来,逐个函数反编译 @albertan017 非常感谢提供的反编译思路,有两个问题想请教下: 1、对于一个可执行程序,是否可以完整的反编译出所有的代码,除了函数外,其它的全局变量定义这类的,是否也能逆向 2、因为有4096的token限制,对于有一些程序,单个函数也是有可能超4096,是否有其它方法可以绕过此限制 期待你的回复,非常感谢!
了解啦,非常感谢 > 1.基于ghidra/ida优化确实有可能反编译出不错的结果,但肯定需要大量人工介入,毕竟llm本身并不具备判断反编译结果对错的能力。llm本质上还是概率模型,看得足够多可能猜出来全局变量甚至宏定义,但需要针对多函数优化训练了。 > > 2.最有效的方法还是增加训练长度。4096的限制并不是硬限制,模型本身支持16k的,推理数据长于4k也可以继续使用。只是训练数据截断成了4k减少计算消耗。
Looking forward to it! Is the C++ support plan still in progress? Is there an expected release date? > Yes, we are working on it. It could take a few...
> We expect to release in around 3 months, we're trying our best on it! Since there isn't a C++ version of Exebench available, we need to compile the projects...