EUNO.NEWS EUNO.NEWS
  • All (20292) +229
  • AI (3103) +13
  • DevOps (906) +6
  • Software (10480) +161
  • IT (5755) +49
  • Education (48)
  • Notice
  • All (20292) +229
    • AI (3103) +13
    • DevOps (906) +6
    • Software (10480) +161
    • IT (5755) +49
    • Education (48)
  • Notice
  • All (20292) +229
  • AI (3103) +13
  • DevOps (906) +6
  • Software (10480) +161
  • IT (5755) +49
  • Education (48)
  • Notice
Sources Tags Search
한국어 English 中文
  • 2周前 · ai

    TTT-E2E:在阅读时学习的 AI 模型(告别 KV 缓存?)

    想象一下,一个 AI 不仅仅把信息存储在 static memory bank 中,而是随着处理长文档而实际提升其 internal understanding。

    #test-time training #long-context modeling #transformers #KV cache #continual learning #TTT-E2E #Stanford #NVIDIA #UC Berkeley
  • 1个月前 · ai

    从理论到实践:揭开现代 LLM 中 Key-Value Cache 的神秘面纱

    介绍 — 什么是键值缓存以及我们为何需要它? KV Cache 插图 https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgra...

    #key-value cache #LLM inference #transformer optimization #generative AI #performance acceleration #kv cache #AI engineering
EUNO.NEWS
RSS GitHub © 2026