爱可可微博热门分享(7.19)
No 1. 新书:《LLM工程师手册:从概念到生产的大型语言模... No 2. 《可扩展的贝叶斯学习蒙特卡洛方法》:为贝叶斯计算背景中广泛应用的马尔可夫链蒙特卡洛(MCMC)算法提供面向研究生的高级主题介绍,特别关注数据量或数据维度可扩展的方法,以应对机器学习和人工智能中的高优先级应用领域 No 3. [IR] Mindful-RAG: A Study of Points of Failure in Retrieval Augmented ...... No 4. Dockerized:一站式Docker容器化项目,提供多种应用的Dockerfile和Kubernetes配置,便于快速部署和运行 No 5. 表格+大型语言模型(LLM)相关论文整理:汇集了大量关于如何利用大型语言模型处理表格数据的论文,涵盖表格问答、表格到文本、文本到SQL等多种任务,为研究人员提供了一个全面的资源库 No 6. 线性代数101:AI/ML基础 - 第1部分 No 7. #免费##抽奖# 携手 @东南大学出版社 送出 3 本《极致C语言》 No 8. Kspider:无需代码的爬虫平台,支持多种数据源和插件扩展,适用于高效数据抓取和处理 No 9. Intel LLM-on-Ray:基于Intel平台的大规模语言模型预训练、微调和服务部署的解决方案,简化了从零开始构建、定制和部署大型语言模型的复杂流程 No 10. OpenOCR:场景文本检测与识别算法的统一训练与评估基准 No 11. vLLM:内存高效的大规模LLM大语言模型推理和服务引擎 No 12. [CL]《Understanding Transformers via N-gram Statistics》 No 13. Stable Diffusion人脸数据集:生成更真实人像图像的预渲染正则化图像集,主要包含男女面部图像,旨在避免生成蜡质感皮肤 No 14. 几篇论文实现代码 No 15. 早![太阳] No 16. Mamba CUDA 实现解析:深度学习模型的高效计算工具,通过解析Mamba模型的CUDA代码,揭示其线性时间序列建模的高效性 No 17. [CV] LookupViT: Compressing visual information to a limited ...... No 18. ComfyUX:ComfyUI的用户体验增强插件,专为批量生成阶段的节点和参数微调效率提升设计,支持节点排序和高频参数收藏,降低工作流分享的学习门槛 No 19. tinygrad学习笔记:深度学习框架Tinygrad的内部机制解析与贡献指南,提供详细的教程和学习笔记,帮助用户理解和参与Tinygrad的开发 No 20. OpenAI 推出了最具成本效益的小型模型 GPT-4o mini No 21. 自建Docker镜像加速服务:一键部署Docker、K8s、Quay、Ghcr、Mcr等镜像加速管理服务,支持多镜像仓库代理,自动配置HTTPS,解决国内安装Docker难题 No 22. GPTQModel:基于GPTQ算法的易用型大型语言模型量化与推理工具包,专注于权重量化 No 23. [LG]《SpreadsheetLLM: Encoding Spreadsheets for Large Language Models》 No 24. LangChain故事写作助手:基于LangGraph Cloud的互动式故事创作工具,支持用户编辑和续写章节,提供多版本章节选择和故事状态持久化功能 No 25. 今日推介(第1471期):语言模型中的上下文不遵从性、通过N-gram统计理解Transformer、深度强化学习的满意度探索、面向大型语言模型电子表格编码、通过Decoupled ...... No 26. Mistral NeMo:前沿人工智能模型,适用于多语言应用的先进12B模型,与NVIDIA合作开发,采用Apache 2.0许可发布 No 27. [CL] E5-V: Universal Embeddings with Multimodal Large Language ...... No 28. [CL] GoldFinch: High Performance RWKV/Transformer Hybrid ...... No 29. Animata:让网站生动起来的简单动画与交互代码工具,复制、粘贴、动画化 No 30. FasterLivePortrait:实时让肖像动起来,支持ONNX和TensorRT No 31. ZeroEval:一个简单的统一框架,用于评估大型语言模型的零样本性能,专注于指令微调聊天模型 No 32. AI超元域:一站式AI集成工具,支持与多个领先AI模型互动,提供丰富的洞察力 No 33. [LG] A Survey on LoRA of Large Language Models 本文对LoRA技术的研究进展进行全面综述,将方法分为提高下游适配性能、实现跨任务泛化、提高计算效率、联邦学习应用和实际场景应用五大类,概括了各类方法的优化思路、效果提升和不足之处,对LoRA技术的发展历程进行全面 ...... No 34. [CL]《Refuse Whenever You Feel Unsafe: Improving Safety in LLMs via Decoupled Refusal Training》 No 35. 超越欧几里得:现代机器学习中的几何、拓扑和代数结构图解指南 No 36. FLASHNN:为大型语言模型服务优化的高性能内核库,支持多种硬件平台,提供全面的注意力机制和多种量化方法 No 37. chadwm:将dwm美化到极致,打造美观实用的窗口管理器,适合Linux用户 No 38. 并行归约基准测试工具:多平台并行计算性能对比,优化大规模数值求和效率,涵盖AVX2、CUDA、OpenCL等多种技术 No 39. 晚安~ [月亮] No 40. 第18期:网页链接 播客已经在喜马拉雅、网易云、Apple全面上线,欢迎关注收听!//这是我的播客《爱可可AI前沿快报》 No 41. NativeLink高性能构建缓存与远程执行系统:加速软件编译与测试,降低基础设施成本,适用于所有规模项目,智能缓存构建产物,跨多机器分发任务 No 42. 多层感知器语言模型:一种基于神经网络的n-gram语言模型,通过多实现方式探索和训练,包括micrograd、numpy、C和PyTorch No 43. 大型语言模型(LLM)与强化学习(RL)交叉研究的最新进展,专注于将它们的能力结合用于控制(例如游戏角色、机器人) No 44. 基于LLVM/Clang/LLD的MinGW工具链:支持跨平台编译Windows应用程序,提供对ARM/ARM64等架构的编译支持,适用于开发多种Windows平台下的应用程序 No 45. 提出SPREADSHEETLLM框架,使用SHEETCOMPRESSOR创新编码方法,实现有效电子表格压缩,在表检测等任务上达到新SOTA,展示LLM处理电子表格的巨大潜力。//[LG]《SpreadsheetLLM: Encoding Spreadsheets for Large Language Models》 No 46. TF-ID:学术文章表格/图形识别器,专为提取学术论文中的表格和图形而设计的模型,提供模型权重和人工标注数据集,支持多种版本以适应不同需求 No 47. 多模态研究精选论文集,涵盖视觉语言模型、多模态学习与对话等领域,提供丰富的学术资源和最新研究成果 No 48. 发现了安全微调数据中的拒绝位置偏差问题,并通过显式训练LLM在响应的任意位置拒绝生成有害内容的方式进行改进,大幅提高了LLM的安全性。//[CL]《Refuse Whenever You Feel Unsafe: Improving Safety in LLMs via Decoupled Refusal Training》 No 49. 通过N-gram语法规则逼近的方式研究了Transformer语言模型是如何利用上下文进行预测的,发现语言模型实现了从简单规则到复杂规则的统计学习课程表,并提出了判断过拟合的无需验证集的方法。//[CL]《Understanding Transformers via N-gram Statistics》 No 50. micrograd:实现反向传播的自动梯度引擎,用于训练神经网络的核心代码,简洁高效