EUNO.NEWS EUNO.NEWS
  • All (20349) +286
  • AI (3104) +14
  • DevOps (907) +7
  • Software (10509) +190
  • IT (5781) +75
  • Education (48)
  • Notice
  • All (20349) +286
    • AI (3104) +14
    • DevOps (907) +7
    • Software (10509) +190
    • IT (5781) +75
    • Education (48)
  • Notice
  • All (20349) +286
  • AI (3104) +14
  • DevOps (907) +7
  • Software (10509) +190
  • IT (5781) +75
  • Education (48)
  • Notice
Sources Tags Search
한국어 English 中文
  • 5天前 · ai

    Flexora:灵活的低秩适配用于大语言模型

    当前问题 - 背景:对大规模语言模型(LLM)进行微调(fine‑tuning)需要消耗大量资源。LoRA(Low‑Rank Adaptation)方法应运而生,以...

    #LLM #LoRA #parameter-efficient fine-tuning #low-rank adaptation #Flexora
  • 6天前 · ai

    AWS Bedrock介绍

    Amazon LLM 访问层的“如何、为何、是什么以及在哪里” 该文章《An introduction to AWS Bedrock》首次发表于 Towards Data Science....

    #AWS #Bedrock #LLM #Amazon #generative AI #foundation models #cloud AI
  • 6天前 · ai

    DeepSeek的条件记忆修复了静默的LLM浪费:GPU周期因静态查找而损失

    当企业 LLM 检索产品名称、技术规格或标准合同条款时,它正在使用为复杂任务设计的昂贵 GPU 计算……

    #LLM #conditional memory #GPU efficiency #inference optimization #AI infrastructure #model serving
  • 6天前 · ai

    大型语言模型(LLMs)实际是如何生成文本的

    《大型语言模型(LLM)实际上如何生成文本》封面图片 https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,gravity=auto,format=au...

    #large language models #LLM #text generation #next-token prediction #deep learning #AI fundamentals
  • 6天前 · ai

    对话记忆崩溃:为什么过度上下文削弱 AI

    每个故事都始于一次小小的误会。一家中型公司找我们构建一个 AI 客服代理。他们的需求很简单——AI 应该“记住每……”

    #LLM #context window #prompt engineering #AI chatbots #memory collapse
  • 1周前 · ai

    Cowork:Claude Code 为你的其余工作

    抱歉,我无法访问外部链接。请您直接提供需要翻译的摘录或摘要文本,我会为您翻译成简体中文。

    #Claude #AI coding assistant #productivity #LLM #code generation #Anthropic
  • 1周前 · ai

    为什么你的 LLM 账单在激增——以及 semantic caching 如何将其削减 73%

    我们的 LLM API 费用环比增长了 30%。流量在增加,但并没有那么快。当我分析我们的查询日志时,发现了真正的问题:用户 as...

    #LLM #semantic caching #API cost reduction #prompt optimization #AI infrastructure
  • 1周前 · ai

    `/context` 命令:为你的 Tokens 提供 X-Ray 视野

    别再猜测你的 tokens 去哪里了。开始看到 context window 上的 invisible tax。来源:x.com/autocomplete

    #token management #context window #Claude #LLM #prompt engineering #AI tooling
  • 1周前 · ai

    TimeCapsuleLLM:仅在1800-1875年数据上训练的LLM

    请提供您希望翻译的具体摘录或摘要文本,我才能为您进行简体中文翻译。

    #LLM #historical data #TimeCapsuleLLM #AI research #training dataset
  • 1周前 · ai

    为什么 90% 的 Text-to-SQL 准确率是 100% 没用的

    自助分析的永恒承诺 文章《Why 90% Accuracy in Text-to-SQL is 100% Useless》首次发表于 Towards Data Science....

    #text-to-sql #natural-language-processing #SQL #accuracy-metrics #self-service-analytics #LLM #AI-evaluation
  • 1周前 · ai

    为什么安大略数字服务无法采购“98% 安全”的 LLM(1500 万加拿大人)

    请提供需要翻译的文本内容。

    #Ontario Digital Service #LLM #AI safety #procurement #government #Canada
  • 1周前 · ai

    何时添加高级 RAG 功能会起作用?

    查看不同管道的性能 《何时添加花哨的 RAG 功能有效?》 首发于 Towards Data Science....

    #retrieval-augmented-generation #RAG #LLM #prompt-engineering #pipeline-performance #NLP #AI-tools

Newer posts

Older posts
EUNO.NEWS
RSS GitHub © 2026