021gink

Results 7 issues of 021gink

Open AI 说sora是基于gpt与dalle 3进行开发的,理论上要完全复刻sora,也需要攻克gpt与dalle 3才能去摸索sora的技术路线。现在claude 3如果在模仿人的思维模式上取得突破,也许能给出复现sora的正确技术方案。

3D高斯技术近两年发展的愈发火热,英伟达也推出自己的机器人训练框架。 我想知道由视频生成的3D静态场景能否转化成机器人仿真训练的场景,机器人仿真训需要与场景互动,3D 高斯场景如果要实现机器人与环境互动,这个场景如何实现顺滑的迁移?

### Is your feature request related to a problem? Please describe. _No response_ ### Solutions 建议增加下面功能: claude code、codex的内部提示明文写在了cli.js文件,有很多可以借鉴的设计:在对话上下文管理方面,Claude Code的ClearTool和MemoryTool提供了卓越的解决方案。ClearTool能够深度分析对话历史,精准提取关键信息,如技术细节、代码模式和架构决策,并生成结构化摘要。摘要涵盖7个核心部分:用户请求、技术概念、文件变更、问题解决过程、待办任务、当前工作状态和下一步计划。即使对话轮次超过100轮,AI依然能清晰掌握项目全貌。MemoryTool则赋予AI持久记忆能力,将重要信息存储于项目根目录的CLAUDE.md文件中,包括项目结构、代码规范、常见问题及解决方案等。下次打开项目时,AI自动读取这些记忆,如同经验丰富的工程师重新熟悉代码库。这种设计使AI具备了“学习”和“积累”的能力,每次交互都为下一次工作奠定基础。 ### Additional context _No response_

### Is your feature request related to a problem? Please describe. _No response_ ### Solutions 1. 核心困境:精于回答,拙于提问 1.1 训练范式的局限:当前主流的大型语言模型(LLM)训练范式,如利用人类反馈的强化学习(RLHF),其核心目标是优化模型输出答案的准确性、流畅度和有用性。 1.2 “提问能力”的缺失:这种以“答案为中心”的优化导向,在很大程度上忽略了对模型“提问能力”的培养,特别是那些能暴露其自身知识盲区、逻辑缺陷或不确定性的内省式提问。 1.3 典型失败案例:“9.11 vs 9.8”:一个反复出现的例子是,当被问及“9.11与9.8哪个更大”时,模型往往无法处理语义(历史事件)与字面值(小数)之间的歧义。它不会主动提出澄清性问题,如“您是指日期事件还是数值大小?”,从而暴露了其在上下文理解和自我质疑上的根本缺陷。 1.4 根源:奖励信号的错位:问题的根源在于,现有的奖励机制主要评估最终输出的质量,而未能有效量化和奖励模型在推理过程中进行自我探测、暴露不一致性或主动寻求澄清的行为。模型因此倾向于生成保守、高置信度的答案,而非进行有风险的自我批判。 2. 自我评估的催化剂:从回答者到提问者 2.1...

### Feature request / 功能建议 claude code、codex的内部提示明文写在了cli.js文件,有很多可以借鉴的设计:在对话上下文管理方面,Claude Code的ClearTool和MemoryTool提供了卓越的解决方案。ClearTool能够深度分析对话历史,精准提取关键信息,如技术细节、代码模式和架构决策,并生成结构化摘要。摘要涵盖7个核心部分:用户请求、技术概念、文件变更、问题解决过程、待办任务、当前工作状态和下一步计划。即使对话轮次超过100轮,AI依然能清晰掌握项目全貌。MemoryTool则赋予AI持久记忆能力,将重要信息存储于项目根目录的CLAUDE.md文件中,包括项目结构、代码规范、常见问题及解决方案等。下次打开项目时,AI自动读取这些记忆,如同经验丰富的工程师重新熟悉代码库。这种设计使AI具备了“学习”和“积累”的能力,每次交互都为下一次工作奠定基础。 ### Motivation / 动机 在进行多轮对话中,由于自回归机制,导致对话历史被反复加载给模型,模型会产生注意力偏移,这在cursor或者网页对话中很常见,模型对历史对话相似指令产生混乱,从而无法意识到当前query主题可能发生转移,生拉硬拽的将之前的对话信息应用到当前query。因此压缩历史对话,get key facts,始终保持对当前query注意力,是增强多轮对话体验一致性的必然需求。 OpenAI chatgpt实现了用户记忆的积累,放在bio函数中,让模型更好的懂用户是有必要的,garbage in garbage out,有研究显示,如果用户的知识水平很高,那么模型的表现也会越强,因为用户的知识领域是有限的,在使用模型解决问题过程中,无法使用专业词汇或者专业分析视角去帮助模型建立所需要的语义空间,这就需要模型美化用户的人设,不要因为用户是小学生,而无法指导模型完成博士题目。 ### Your contribution / 您的贡献 npm install -g @openai/codex npm...

### Feature request / 功能建议 目前比较好用的AI搜索便属于 perplexity,如果有什么难题,也会使用DeepResearch 进行初步分析研究。这两个工具基本可以解决较有深度的问题,是否将两个工具给出的反馈作为模型训练阶段验证奖励,从而让模型压缩一种系统研究问题的能力? ### Motivation / 动机 模型直觉给出答案比较浅层,无法系统深度的探索,使用perplexity与DeepResearch 结果作为验证,是否可以激发模型学会如何搜索与做深度研究思维链? ### Your contribution / 您的贡献 给模型上点难度

### Feature request / 功能建议 目前的训练,奖励模型如何有效的pass@1,而忽略模型能够提出 类似9.11与9.8哪个大的 暴露自身缺陷问题的能力,建议奖励规则或者训练环节,增强模型能够提出优质问题的能力。 ### Motivation / 动机 理想的状态模型应该自己去训练自己。就像alphago 自己与自己的前一个版本博弈,从而不断迭代提升。 但是目前模型训练似乎还没有实现自问自答,不断探索的能力。好的问题比答案更重要,我们不仅需要能够解答博士难度的模型,还需要模型自身能够提出更有价值问题的能力。 ### Your contribution / 您的贡献 提问比答案更重要