爱可可微博热门分享(9.10)
No 1. minimind:3小时从0训练26M小参数GPT,低至2G显卡即可推理训练 No 2. 出海网站经验总结 No 3. AI-Driven Research Assistant:一个先进的多智能体系统,用于自动化复杂的研究过程,利用LangChain、OpenAI GPT模型和LangGraph,这个工具简化了假设生成、数据分析、可视化和报告编写。非常适合寻求提高工作流程和生产力的研究人员和数据科学家 No 4. PuePy - Python+Webassembly前端框架:通过PyScript将Python直接嵌入浏览器,提供现代Web框架的便利,无需Webpack、NPM或JavaScript的复杂性,支持响应式数据绑定和组件化架构,内置单页应用(SPA)路由,无需构建层,直接执行,支持完整Pyodide或Micropython No 5. Token压缩研究精选:专注于视觉Transformer(ViT)和视觉语言模型(VLM)的Token压缩技术,旨在提高模型效率和性能 No 6. iText2KG:利用大型语言模型增量构建知识图谱的工具,具备零样本能力,支持跨领域知识提取,并通过Neo4j进行可视化展示 No 7. 免费书《机器学习导论》:由Laurent Younes撰写,涵盖机器学习算法的数学基础和分析技术,包括统计预测、核理论、Hilbert空间技术、监督学习算法、生成方法、图形模型、变分方法、深度生成模型、无监督学习方法以及集中不等式和泛化界限 No 8. 学术个人主页模板:为科学家设计的简洁学术主题个人主页,易于部署在GitHub页面上,并且可以通过CSS进行相对简单的定制 No 9. Global Streetscapes:全球街景数据集,包含1000万张街景图像,覆盖212个国家和地区的688个城市,每张图像都经过丰富的地理空间、时间、上下文、语义和感知信息增强 No 10. #免费##抽奖# 携手@博文视点Broadview 送出3本《三维视觉新范式:深度解析NeRF与3DGS技术》 No 11. 基于大型语言模型的软件工程Agent资源集:为软件工程领域提供基于大型语言模型(LLM)的Agent技术,通过增强LLM的外部资源和工具利用能力,显著扩展了其在软件工程任务中的应用范围和有效性 No 12. Tomato:利用最小熵耦合的LLM隐写工具,将加密信息隐藏在自然语言中 No 13. qemu-docker:QEMU 在 Docker 容器中的实现,用于运行虚拟机,支持多种磁盘格式和高性能选项,包括 KVM 加速和内核模式网络等 No 14. KubeAI: Kubernetes上的私有开源人工智能:提供与OpenAI API兼容的HTTP接口,支持多种机器学习模型,如LLMs和Whisper,能够在不同平台上运行,包括仅CPU、GPU,未来还将支持TPU。具备自动扩展功能,无需依赖Istio、Knative等,并且包含聊天界面OpenWebUI。 No 15. 早![太阳] No 16. CodeFuse-muAgent:由知识图谱引擎驱动的创新智能体框架,专注于多智能体编排和协作,支持复杂推理、在线协作、人际互动和知识即需即用 No 17. DevHub:一款功能丰富的离线应用程序,精心设计以支持开发者的日常任务,同时确保他们数据的最高安全性 No 18. GenAgent:构建协作AI系统,通过自动化工作流生成,以ComfyUI案例研究为例,主要功能包括从人类设计的工作中学习并创建新的工作流,使大型语言模型代理能够更好地理解并执行复杂任务 No 19. [CL]《RLPF: Reinforcement Learning from Prediction Feedback for User Summarization with LLMs》 No 20. [CV]《Data-Efficient Generation for Dataset Distillation》 No 21. 几篇论文实现代码 No 22. 晚安~ [月亮] No 23. 提出使用类条件扩散模型UViT进行数据集蒸馏,可以高效生成质量较好的合成图像,并在下游任务中取得SOTA性能。//[CV]《Data-Efficient Generation for Dataset Distillation》 No 24. [CL]《Learning vs Retrieval: The Role of In-Context Examples in Regression with LLMs》 No 25. fast-grid:世界上性能最佳的基于DOM的Web表格,能够同时进行排序、筛选和滚动,且保持120fps的流畅体验 No 26. 来自Anthropic的提示工程技巧总结: 1. 编写提示时要清晰精确。清楚地陈述任务和描述概念的能力至关重要。 ...... No 27. the Shire - AI Coding Agent Language:一种使LLM与IDE之间通信以实现自动化编程的编程智能体语言,旨在创建自定义的AI驱动开发环境 No 28. LiDAR-Visual SLAM资源库:汇集了与激光雷达-视觉融合SLAM相关的精选资源,旨在提供高精度和鲁棒性的定位与建图解决方案,融合了激光雷达的精确测距和相机捕捉的丰富环境细节,以应对多样化和具有挑战性的环境 No 29. Nomadic:企业级工具包,专注于机器学习团队的参数搜索,以持续优化从前期到后期生产的复合AI系统 No 30. hand_teleop_real_sim_mix_adr:增强现实世界灵巧操作的模拟人类演示数据增强和训练方法,支持通过模拟和真实数据的联合训练来提升机器人操作技能 No 31. [LG]《Theory, Analysis, and Best Practices for Sigmoid Self-Attention》 No 32. 全能图像修复工具:提供一站式图像处理技术,包括修复、增强、编码和质量评估,不断更新相关研究论文和方法 No 33. 个人AI图像定制:通过微调 FLUX 1.dev技术,为个人用户提供定制化的AI照片处理服务,支持个性化图像生成与编辑 No 34. TabularS3L:基于PyTorch Lightning的库,专为表格数据的自监督和半监督学习设计,提供统一框架以探索和部署相关模型 No 35. 拓扑机器学习教程:面向从业者的拓扑方法,利用代数拓扑技术分析复杂数据结构,捕捉传统机器学习方法可能无法捕捉的特征 No 36. Chai-1:分子结构预测的多模态基础模型,实现蛋白质、小分子、DNA、RNA等多种生物分子的统一预测,性能在多个基准测试中处于领先水平 No 37. damn/core:一款实验性的新方法,用于简化视频游戏开发,采用动作角色扮演游戏制作工具、引擎和属性编辑器的集合体 No 38. 提出RLPF方法,使用强化学习直接优化生成的用户活动摘要对下游任务的效用,展现出在提高预测性能和摘要质量方面的显著效果。//[CL]《RLPF: Reinforcement Learning from Prediction Feedback for User Summarization with LLMs》 No 39. Self Attention by Hand :一个专注于手动实现自注意力机制的教程,旨在帮助理解并应用这一深度学习中的关键技术 No 40. [LG]《The Prevalence of Neural Collapse in Neural Multivariate Regression》 No 41. VLM-Captioning-Tools:利用视觉语言模型(VLMs)为图片自动生成描述的工具,具备自动检测并解决重复序列标题失败的功能,支持多种脚本和模型 No 42. TorchJD:PyTorch库,用于雅可比下降法,支持多任务学习中的神经网络优化 No 43. The Odin Project Curriculum:开源的全栈Web开发课程,提供结构化课程和实践项目,帮助用户通过构建项目来巩固理论知识 No 44. 通过实验和理论首次发现神经坍缩也广泛存在于回归任务中,将其作为深度学习的一种潜在普适规律。//[LG]《The Prevalence of Neural Collapse in Neural Multivariate Regression》 No 45. 通过实证分析提出了大语言模型在上下文学习中同时使用学习和知识检索的机制假说。//[CL]《Learning vs Retrieval: The Role of In-Context Examples in Regression with LLMs》 No 46. supertree:交互式决策树可视化工具,支持在Jupyter Notebooks等环境中以互动方式展示决策树,具备放大缩小、展开折叠节点等功能,直观探索树结构 No 47. imFile Desktop:一款功能齐全的下载管理器,支持HTTP、FTP、BitTorrent、Magnet等多种下载方式,界面简洁易用,特色功能包括BitTorrent选择性下载、自动更新Tracker列表、UPnP & NAT-PMP端口映射、支持多线程下载、速度限制、模拟User-Agent等 No 48. [CL] Attention Heads of Large Language Models: A Survey 基于人类思维过程框架,归纳了语言模型Attention ...... No 49. AI for Grant Writing:利用人工智能语言模型(LLMs)提升科研经费申请竞争力的资源库,提供写作提示、工程技巧及特定于经费申请的资源 No 50. [LG]《MoRe Fine-Tuning with 10x Fewer Parameters》