爱可可微博热门分享(2.29)
No 1. [CV] Sora: A Review on Background, Technology, Limitations, ...... No 2. 𝚃𝚎𝚡𝚃𝚎𝚕𝚕𝚎𝚛:基于ViT的端到端公式识别模型,可以把图片转换为对应的latex公式 No 3. hotpdf:以快速、高效的方式解析PDF文件,可用于查找和提取PDF中的文本,克服使用pdfquery等库解析大型PDF文件时遇到的困难 No 4. 大型语言模型缺乏人类理解能力 No 5. #抽奖##赠书# 携手@博文视点Broadview 送出3本《图数据库:理论与实践》 No 6. [LG] Does Negative Sampling Matter? A Review with Insights into ...... No 7. IntelliQ:基于大型语言模型(LLM)的多轮问答系统,结合了先进的意图识别和词槽填充(Slot Filling)技术,致力于提升对话系统的理解深度和响应精确度 No 8. [CL]《The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits》 No 9. 'search2ai - 让你的 LLM API 支持联网,搜索、新闻、网页总结,已支持OpenAI、Gemini,大模型会根据你的输入判断是否联网' ...... No 10. ViT Prisma:Vision Transformers (ViT)机制可解释性库 No 11. 用后缀提高张量变量名可读性:旨在提高代码的可读性和理解性。通过为张量命名规定一套单字母命名系统,例如B代表批量大小,L代表序列长度等,使得变量名简洁而信息丰富。此外,张量命名的结尾采用维度后缀,进一步增强了变量的描述能力 No 12. [CV] Sora Generates Videos with Stunning Geometrical Consistency ...... No 13. Mountaineer:旨在轻松用Python和R... No 14. StarCoder 2:一系列代码生成模型(3B、... No 15. 手把手教程:用Gemma, MongoDB 和开源模型构建RAG系统 No 16. '《构建你自己的 AI 辅助编码助手》 No 17. Causality Lab:由Intel Labs开发的研究代码库,包括新的因果发现算法及常见算法,用于开发和检验新算法 No 18. [CL] Latent Attention for Linear Time Transformers 提出一种新的Transformer模型'Latte ...... No 19. 晚安~ [月亮] No 20. 初学者制作精美PPT指南 No 21. R2R:产品级RAG系统,提供半自主化的RAG框架,旨在弥合实验性RAG模型与鲁棒、产品级系统之间的差距 No 22. [CV]《Video as the New Language for Real-World Decision Making》 No 23. '青梧字幕 - 青梧字幕是一款基于whisper的AI字幕提取工具,使用C++版本的whisper.cpp进行底层处理,前端界面采用Electron ...... No 24. 语言模型(训练)数据选择相关论文资源列表 No 25. [CL]《Massive Activations in Large Language Models》 No 26. 几篇论文实现代码 No 27. Spider:Rust写的超快爬虫,支持并发、流式、分布式、无头浏览器、HTTP代理、定期执行、订阅等 No 28. [CV] VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction ...... No 29. Qualcomm® AI Hub Models:一组优化性能的先进机器学习模型,可在高通®设备上部署,涵盖视觉、语音、文本和生成式 AI 等领域。支持 TensorFlow Lite 运行时,包括 Snapdragon 845 至 Snapdragon 888+ 等芯片组,以及多款主流手机设备 No 30. 早![太阳] No 31. 今日推介(第1330期):1比特LLM时代、语言模型最优学习探索、大型语言模型的巨量激活、视频作为现实世界决策的新语言、使用潜透明度的透明图像层扩散 ...... No 32. Native RAG on MacOS and Apple Silicon with MLX:支持多种开源模型的检索增强生成(RAG)聊天界面,可在MacOS和苹果芯片上运行 No 33. 深入分析了大型语言模型中的“巨量激活”现象,揭示了它们作为模型中固定偏置项的作用,对自注意力机制的影响,以及如何通过增强自注意力来避免学习这些巨量激活,为优化和理解LLMs内部机制提供了新的视角和方法。//[CL]《Massive Activations in Large Language Models》 No 34. 2024年LLM研究趋势:模型合并,专家混合,更小的LLM No 35. [CV]《Transparent Image Layer Diffusion using Latent Transparency》 No 36. 创新性地提出了BitNet b1.58模型,一种三元权重的1.58比特大型语言模型,在保持与FP16精度模型相同性能的同时,显著降低了计算成本和能源消耗,并为设计针对1比特LLM优化的特定硬件开启了新的计算范式。//[CL]《The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits》 No 37. rust_kanban:用Rust写的终端Kanban应用,可以帮助用户通过优先处理任务和更快实现目标提高工作效率 No 38. 用Gemma“替代”我自己 No 39. Craftax:完全使用JAX编写的RL环境,重新实现并显著扩展了Crafter的游戏机制 No 40. LLM可解释性相关资源列表 No 41. [CL] A Survey on Data Selection for Language Models 全面回顾了用于语言模型的数据选择方法的现有文献,提出一种分类方法。大型语言模型成功的关键之一是使用庞大且不断增长的文本数据集进行无监督的预训练。然而,盲目地对所有可用数据进行训练并不总是最佳选择,因为文 ...... No 42. '本地LLM使用指南 0.2' GitHub: github.com/xue160709/Local-LLM-User-Guideline/blob/main/README-zh.md ...... No 43. [CL]《Towards Optimal Learning of Language Models》 No 44. 提出一种优化语言模型学习的理论框架,通过最大化数据压缩比来最小化损失曲线下面积作为优化目标,并派生出一条学习法则来指导最优学习过程,通过实验证明了这种方法能显著提高模型学习速度的同时改善规模化法则中的系数,为加速大型语言模型的训练提供了新的视角和方法。//[CL]《Towards Optimal Learning of Language Models》 No 45. ai-infra.fun:生成式AI生态基础设施全景图 No 46. TableQAKit: 用于表格问答的工具包,支持LLM模型,提供可扩展的设计、全面的数据集和强大的方法,支持LLM的提示和微调方法、统一的数据接口、可复现的SOTA方法以及高效的LLM评估 No 47. IKV:高性能的内联(Inlined)嵌入式键-值数据库,用于支持现代机器学习推断,比现有解决方案如Redis快100倍 No 48. MeloTTS:高质量多语言文本转语音库。支持多种语言,其中包括英语(美国、英国、印度、澳大利亚等)、西班牙语、法语、中文、日语和韩语等。其特色包括支持中英文混合朗读,CPU实时推理速度快等 No 49. JupyterLab 4.1 & Notebook 7.1发布 No 50. 'Windows in a Docker container.' GitHub: github.com/dockur/windows ......