EUNO.NEWS EUNO.NEWS
  • All (20349) +286
  • AI (3104) +14
  • DevOps (907) +7
  • Software (10509) +190
  • IT (5781) +75
  • Education (48)
  • Notice
  • All (20349) +286
    • AI (3104) +14
    • DevOps (907) +7
    • Software (10509) +190
    • IT (5781) +75
    • Education (48)
  • Notice
  • All (20349) +286
  • AI (3104) +14
  • DevOps (907) +7
  • Software (10509) +190
  • IT (5781) +75
  • Education (48)
  • Notice
Sources Tags Search
한국어 English 中文
  • 3周前 · ai

    深度卷积网络在图结构数据上的应用

    概述 大多数智能机器在处理照片和声音方面已经变得非常出色,因为这些数据类型具有明确的块和层。然而,文本、基因、...

    #graph neural networks #deep learning #graph convolutional networks #graph-structured data #model efficiency
  • 0个月前 · ai

    当你仅使用 1 和 0 构建 LLM 时会发生什么

    一个比当今标准模型效率高41倍、速度快9倍的LLM。文章《当你仅使用1和0构建LLM会怎样》首次发表于 T...

    #LLM #model efficiency #binary representation #AI research #large language models
  • 1个月前 · ai

    📌 大多数模型使用 Grouped Query Attention。这并不意味着你的模型也应该如此。📌

    !文章插图https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazo...

    #grouped query attention #attention mechanisms #transformers #model efficiency #scalable AI #deep learning #neural network architecture
  • 1个月前 · ai

    Ai2 的新 Olmo 3.1 扩展强化学习训练,以实现更强的推理基准

    Allen Institute for AI(Ai2)最近发布了他们称之为迄今为止最强大的模型系列——Olmo 3。但公司仍在不断迭代这些模型,……

    #Olmo 3.1 #reinforcement learning #reasoning benchmarks #Allen Institute for AI #large language models #model efficiency
  • 1个月前 · ai

    [Paper] 频率感知的 Token 缩减用于高效 Vision Transformer

    Vision Transformers 在各种计算机视觉任务中表现出卓越的性能,但它们相对于 token 的二次计算复杂度……

    #vision transformers #token reduction #frequency-aware pruning #computer vision #model efficiency
EUNO.NEWS
RSS GitHub © 2026