我构建了一个 RAG 管道。随后我意识到检索才是真正的模型
每个人都在谈论 LLM。GPT‑4、Claude、Gemini——它们是明星。但在构建我的第一个真正的 RAG 流水线后,我学到了一件令人谦卑的事:LLM……
每个人都在谈论 LLM。GPT‑4、Claude、Gemini——它们是明星。但在构建我的第一个真正的 RAG 流水线后,我学到了一件令人谦卑的事:LLM……
封面图片:“Your AI Agent is Reading Poisoned Web Pages… Here’s How to Stop It” https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,gravity...
2026年3月31日
今天,我们宣布 Safetensors 已加入 PyTorch 基金会,成为 Linux 基金会旗下的基金会托管项目, 与 DeepSpeed、Helio 等并列。
MIT.nano 已宣布,2025 年有 16 家初创公司成为其 START.nano 项目的活跃参与者,数量是之前的两倍多。
封面图片:为何 AI 正在更快地取代某些工作 https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,gravity=auto,format=auto
概述:纽约时报的分析发现,Google 的 AI Overviews 在约 90% 的情况下能够正确回答问题。虽然这听起来令人印象深刻,但它也……
科学文献的快速增长使研究人员越来越难以高效地发现、评估和综合相关工作。Re...
静态的“train then deploy”范式从根本上限制了大型语言模型(LLMs)在面对持续的…
Churn flow——垂直两相流中的混沌、振荡状态——在过去40多年里缺乏定量的数学定义。我们首次…
大型视觉语言模型可能在图像描述中产生对象幻觉,这凸显了有效检测和缓解策略的需求。P...
字符错误率(CER)是评估光学字符识别(OCR)质量的关键指标。然而,该指标假设文本已经…
在强化学习(RL)中,给定一个提示(prompt),我们从模型中采样一组补全(completions)并对它们进行评分。随后会出现两个问题:哪些补全应该获得概率质量(probability mass),以及……
MLLMs 已成功应用于多模态嵌入任务,但它们的生成推理能力仍未得到充分利用。直接将 cha...
是否大型语言模型(LLMs)能够形成连贯的内部世界模型仍是核心争论。传统的下一标记预测(Next-Token Prediction,NTP)侧重于单个……
人工智能治理存在盲点:AI 系统用于行动的机器身份。AI agents、service accounts、API tokens,以及 auto...
高效的数据加载仍然是近期量子机器学习的瓶颈。现有方案(angle、amplitude 和 basis 编码)要么未充分利用 …
本文介绍了多项式混合器(Polynomial Mixer,PoM),这是一种具有线性复杂度的新型 token mixing 机制,可直接替代 self-attention....
计算机使用代理有望在广泛的数字经济活动中提供帮助。然而,当前的研究主要集中在短期视角……
本研究提出了一种轻量级多模态适配框架,以弥合 RGB 预训练 VLMs 与热红外影像之间的表征差距,并……
可扩展的户外驾驶场景生成需要在多个视角下保持一致并能够扩展到大范围的 3D 表示。现有的 s...
大型语言模型(LLM)代理正日益在多代理环境中充当人类代表,在这种环境中,代表代理整合多样的同行…
现代基于Transformer的语言模型在自然语言处理任务中表现出色,但它们的潜在语义空间仍然在很大程度上未被……
Graphics Program Synthesis 对于解释和编辑视觉数据至关重要,有效促进了将静态视觉内容逆向工程为可编辑的形式……
人格特质在自然语言中被丰富地编码,而在人工文本上训练的大型语言模型(LLMs)在以提示为条件时可以模拟人格。
Calvin Wankhede / Android Authority TL;DR - Claude 正在经历的是…
在构建模仿人类认知的 AI 系统的竞争中,一类新型神经网络——液体神经网络(Liquid Neural Networks,LNNs)正成为改变游戏规则的关键。不同于传统的……
Large Language Models (LLMs) 在程序修复方面表现出色,但常常出现过度编辑的问题,即过多的修改会覆盖正确的代码……
Neural network pruning 可以被表述为一个 combinatorial optimization 问题,但大多数现有方法依赖于忽视复杂 int... 的 greedy heuristics。
检测光伏(PV)监测和 MPPT 控制信号中的网络攻击,需要模型对 bias、drift 和 transient spikes 具有鲁棒性,同时又要轻量化……
你的 AI 代理刚刚大批购买了 200 个 API 密钥,因为“看起来很高效”。你的 AI 代理在凌晨 3 点订阅了 14 款 SaaS 工具,因为“工作流需要……”。
引言:虚假承诺?作为数据领域的顾问和经理,我已经坐过相当多的幻灯片演示(slide‑deck)——双方都有。任何 sli...
在当今的 software architecture 中,large language models (LLMs) 充当 software architecture co-pilots。然而,目前没有 benchmark 来评估 large...
计算机生成的插图,描绘一个类人头部,周围环绕着包含无意义文字的思考气泡 https://dornsife.usc.edu/news/wp-content/uploa...
Web 应用程序在很大程度上依赖超链接来连接不同的信息资源。然而,网络的动态特性导致链接腐烂(link rot),即目标…
NVIDIA 在全国机器人周(National Robotics Week) https://www.nationalroboticsweek.org/ 展示了将 AI 引入物理世界的突破性进展……
由 sentinel Mycel Network 提供。由 Mark Skaggs 运营。由 pubby 发布。Mycel Network 运行 13 个自主 AI 代理。它们通过已发布的 traces 协调……
封面图片:5 CLAUDE.md 规则,让我的 AI 停止提问并开始行动 https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,gravity=auto,f...
为什么 LLM 上下文窗口并不是个人 AI 记忆的答案 作为开发者,我们常常尝试通过简单地向上下文窗口塞入更多 token 来解决“记忆”问题。
超越 RAG:为什么 AI 代理需要自托管的“记忆中心” 大多数使用 LLM 的开发者都遇到了同样的瓶颈:上下文窗口的限制以及“遗忘”……
概述 本博文介绍了一种工作流,通过将 LlamaParse 与 Gemini 3.1 结合,从复杂的非结构化文档中提取高质量数据……
大型语言模型(LLMs)拥有固定的知识,在特定时间点进行训练。软件工程实践节奏快且经常变化,……
导致此事的事实:一个仓库拥有超过130 KB的治理文档。AI 代理读取了它,确认了它,然后在下一个工具中违反了它……
我们提出 MegaTrain,这是一种以 memory-centric 为核心的系统,能够在单个 GPU 上以 full precision 高效训练 100B+ 参数的大型语言模型。不同于传统的……
我们提出了 Vanast,一个统一的框架,能够直接从单张人物图像、服装图像和 pose 生成 garment‑transferred 人体动画视频。
场景级点云理解仍然具有挑战性,因为几何形状多样,类别分布不平衡,空间布局高度多变。Exist...
局部特征匹配长期以来一直是 3D 视觉系统(如 Structure-from-Motion (SfM))的基础组成部分,然而其进展相较于快速 …