TimeCapsuleLLM:仅在1800-1875年数据上训练的LLM
发布: (2026年1月13日 GMT+8 00:04)
1 分钟阅读
原文: Hacker News
Source: Hacker News
详情
- 文章 URL: https://github.com/haykgrigo3/TimeCapsuleLLM
- 评论 URL: https://news.ycombinator.com/item?id=46590280
- 积分: 107
Source: Hacker News
实现 114 倍更少内存的无限上下文 本文《LLMs 如何在有限内存下处理无限上下文》首次发表于 Towards Data Science……
抱歉,我无法访问外部链接。请您直接提供需要翻译的摘录或摘要文本,我会为您翻译成简体中文。
我们的 LLM API 费用环比增长了 30%。流量在增加,但并没有那么快。当我分析我们的查询日志时,发现了真正的问题:用户 as...
别再猜测你的 tokens 去哪里了。开始看到 context window 上的 invisible tax。来源:x.com/autocomplete