KeywordGacha icon indicating copy to clipboard operation
KeywordGacha copied to clipboard

使用 AI 能力分析 小说、游戏、字幕 等文本内容并生成术语表的次世代翻译辅助工具

Results 19 KeywordGacha issues
Sort by recently updated
recently updated
newest added

[01:10:12] WARNING [词义分析] 无法匹配的实体类型 - 월령 -> 行为 ... [01:10:12] WARNING [词义分析] 无法匹配的实体类型 - 루틀랜드 -> 其他 ... [01:10:12] WARNING [词义分析] 无法匹配的实体类型 - 파이어볼 -> 行为 ... [01:10:13] WARNING [词义分析]...

许多轻小说中都有大量的纯汉字人名/地名,比如 ``` { "src": "日本", "dst": "日本", "info": "地点" }, ... { "src": "東雲", "dst": "东云", "info": "名字" }, ``` 这些术语存在与否几乎不会影响翻译质量,但是每次翻译时都会因之额外消费很多input token。同时,判断一个词是否为纯汉字替换词相对简单,比如使用`opencc`库: ``` from opencc import OpenCC # 判断是否为纯汉字的函数 def...

wontfix

因为我用的api存在TPM和RPM限制,感觉翻译效率比较低,所以想用多条api轮询来提高效率 我在config.json中设置成以下格式: "api_key": [ "key1", "key1", "key1", "接口密钥,从接口平台方获取,使用在线接口时一定要设置正确。" ], 运行程序后,测试接口,只有一个测试成功的反馈。请问这有实现api轮询吗?

小说的话,人物名字最重要,其它其实无所谓,尤其是长篇小说,会浪费大量token在不需要的物品,地名之类的术语,全部查找和翻译不仅费时费力还得不尝失,对于只想要名字的术语来说,希望可以通过设置来实现更快,消耗更少token的办法。

AiNiee v6 新增了禁翻表的功能,我想先用工具提取出可能是代码的文本,然后人工检查,最后添加到禁翻表中。 ![Image](https://github.com/user-attachments/assets/1db3ba80-412c-47fa-8584-68cb2dfaff7a)

如果文件夹下存在多个epub/txt,能否做个功能对每个文件生成术语表,这个功能对绿站生成术语表比较有用 目前的行为是对整个文件夹内的所有文件生成一个术语表

每次更新都要重下2g 然后解压6g😂

这项目的管线看起来挺像RAG的,可以在提示词里面也加入GraphRAG一样的示例: https://github.com/microsoft/graphrag/blob/main/graphrag/prompts/index/entity_extraction.py 另外,有啥好用的本地LLM推荐的吗?能同时支持中日双语又足够“聪明”的开源模型可不好找。

词语原文 : エルシェアンタ 参考文本原文 : ※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※ エルシェアンタっ……ちょっと、まっ……んぁあんっ!なんか、お尻、あつっ……ふぅううぅっ! エルシェアンタのやってること、ただのガキと一緒よ!?この街の金持ちって皆そんななの!? エルシェアンタ、マジでどうしようもないわね……!んっ……!てか、息当たってキモい……! 实际文本: { "message": "エルシェ\nアンタっ……ちょっと、まっ……んぁあんっ!\nなんか、お尻、あつっ……ふぅううぅっ!" },