EUNO.NEWS EUNO.NEWS
  • All (20038) +213
  • AI (3083) +12
  • DevOps (901) +6
  • Software (10306) +149
  • IT (5702) +46
  • Education (45)
  • Notice (1)
  • All (20038) +213
    • AI (3083) +12
    • DevOps (901) +6
    • Software (10306) +149
    • IT (5702) +46
    • Education (45)
  • Notice (1)
  • All (20038) +213
  • AI (3083) +12
  • DevOps (901) +6
  • Software (10306) +149
  • IT (5702) +46
  • Education (45)
  • Notice (1)
Sources Tags Search
한국어 English 中文
  • 2주 전 · ai

    TTT-E2E: 읽으면서 학습하는 AI 모델 (KV 캐시와 작별?)

    정적 메모리 뱅크에 정보를 단순히 저장하는 것이 아니라, 긴 문서를 처리하면서 내부 이해를 실제로 향상시키는 AI를 상상해 보세요. A c...

    #test-time training #long-context modeling #transformers #KV cache #continual learning #TTT-E2E #Stanford #NVIDIA #UC Berkeley
  • 1개월 전 · ai

    이론에서 실천으로: 현대 LLM의 Key-Value 캐시 해부

    소개 — 키‑밸류 캐시란 무엇이며 왜 필요한가? !KV Cache illustration https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgra...

    #key-value cache #LLM inference #transformer optimization #generative AI #performance acceleration #kv cache #AI engineering
EUNO.NEWS
RSS GitHub © 2026