EUNO.NEWS EUNO.NEWS
  • All (20232) +169
  • AI (3101) +11
  • DevOps (906) +6
  • Software (10442) +123
  • IT (5735) +29
  • Education (48)
  • Notice
  • All (20232) +169
    • AI (3101) +11
    • DevOps (906) +6
    • Software (10442) +123
    • IT (5735) +29
    • Education (48)
  • Notice
  • All (20232) +169
  • AI (3101) +11
  • DevOps (906) +6
  • Software (10442) +123
  • IT (5735) +29
  • Education (48)
  • Notice
Sources Tags Search
한국어 English 中文
  • 7小时前 · ai

    使用 Atomic Inference Boilerplate 加速 AI 推理工作流

    封面图片:Accelerating AI Inference Workflows with the Atomic Inference Boilerplate https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,gr...

    #LLM #inference #prompt-engineering #software‑architecture #devtools #machine‑learning‑ops
  • 10小时前 · ai

    Show HN: Intent Layer:面向 AI 代理的上下文工程技能

    请提供您希望翻译的文章摘录或摘要文本,我将为您翻译成简体中文。

    #intent layer #context engineering #AI agents #prompt engineering #LLM
  • 22小时前 · ai

    什么是LLM?ChatGPT、GPT 与 AI 语言模型的真实工作原理(初学者指南)

    如何 Large Language Models(LLMs)工作 — 适合初学者的指南 =================================================================== 了解 Large Language Models 的工作原理

    #large language models #LLM #ChatGPT #GPT #transformers #tokens #AI basics #beginner guide
  • 1天前 · ai

    “太聪明”Knowledge Base问题:当你的AI知道得太多反而有害

    经验教训:当 AI 知道太多时,我搞砸了。不是小错误。是那种“客户在星期五晚上 11 点给我打电话”的情况。我们刚刚部署了一个…

    #voice AI #knowledge base #healthcare AI #prompt engineering #LLM #data overload #conversational AI
  • 1天前 · ai

    停止向你的 LLM 投喂‘垃圾’令牌。(我构建了一个代理来解决它)

    Headroom – 为 LLM 驱动的代理提供上下文优化层 我最近构建了一个代理来处理一些 SRE 任务——获取日志、查询数据库、搜索……

    #LLM #token compression #context optimization #open-source #agent tooling
  • 1天前 · ai

    Prompt Engineering 是一种症状(这没关系)

    或者:如果你像工程师而不是魔法师那样阅读,这本书实际上教了什么。 在我上一次的帖子之后,有几个人以各种方式回复说:> “好吧,聪明……”。

    #prompt engineering #large language models #LLM #chain of thought #AI productivity #AI book review #AI tools
  • 1天前 · ai

    LLM 系统的缓存策略:精确匹配与语义缓存

    封面图片:LLM 系统的缓存策略:Exact-Match 与 Semantic Caching https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,...

    #LLM #caching #exact-match caching #semantic caching #embeddings #latency reduction #cost optimization
  • 2天前 · ai

    你听说过Shoggoth怪物梗吗?

    什么是怪物 Shoggoth 的 meme?Shoggoth 是一种满是触手和多个眼睛的怪物,喜欢恐怖文学的人会认出它的来源……

    #Shoggoth #LLM #pretraining #fine-tuning #AI meme
  • 2天前 · ai

    Etsy 如何使用 LLMs 提升搜索相关性

    是否曾经搜索某个特定的东西,却只得到相近但并不完全匹配的结果?在 Etsy 的 Search Relevance 团队,这种挫败感正是…

    #Etsy #LLM #search relevance #machine learning #e‑commerce #natural language processing #search optimization
  • 2天前 · ai

    使用 OpenCode 配置本地 LLM

    向 OpenCode 添加自定义的 OpenAI 兼容端点,OpenCode 目前在其 UI 中并未提供简单的“自带端点”选项。相反,它……

    #LLM #OpenCode #vLLM #OpenAI-compatible API #local deployment #endpoint configuration
  • 2天前 · ai

    广告即将进入 ChatGPT。以下是它们的工作方式

    OpenAI 表示,广告不会影响 ChatGPT 的回复,并且它不会将用户数据出售给广告商……

    #ChatGPT #OpenAI #advertising #ads #LLM #AI monetization #AI ethics
  • 3天前 · ai

    将 LLM 内存削减 84%:深入探讨 Fused Kernels

    为什么你的最终 LLM 层会 OOM,以及如何使用自定义 Triton kernel 来解决。文章《Cutting LLM Memory by 84%: A Deep Dive into Fused Kernels》已出现 fi...

    #LLM #memory optimization #fused kernels #Triton #GPU performance #deep learning #model inference

Newer posts

Older posts
EUNO.NEWS
RSS GitHub © 2026