EUNO.NEWS EUNO.NEWS
  • All (20292) +229
  • AI (3103) +13
  • DevOps (906) +6
  • Software (10480) +161
  • IT (5755) +49
  • Education (48)
  • Notice
  • All (20292) +229
    • AI (3103) +13
    • DevOps (906) +6
    • Software (10480) +161
    • IT (5755) +49
    • Education (48)
  • Notice
  • All (20292) +229
  • AI (3103) +13
  • DevOps (906) +6
  • Software (10480) +161
  • IT (5755) +49
  • Education (48)
  • Notice
Sources Tags Search
한국어 English 中文
  • 3周前 · ai

    生成式 AI:改变技术的未来

    了解 Generative AI。Generative AI 使用 machine learning 模型,特别是 deep learning 技术,生成与现有数据相似的新数据……

    #generative AI #GAN #transformers #ChatGPT #DALL·E #deep learning #content creation #machine learning
  • 3周前 · ai

    Transformer 已死。Google 杀死了它们——随后沉默

    请提供您希望翻译的文本内容。

    #transformers #google #large-language-models #deep-learning #AI-research #model-deprecation
  • 0个月前 · ai

    Transformer 真正的思考方式:AI 语言模型大脑内部

    引言 大多数人认为 AI 模型是神秘的黑箱,但他们想得太多了。当你在模型中输入一句话时,它并不“看到”单词——i...

    #transformers #language-models #attention-mechanism #tokenization #vector-embeddings #LLM-explainability #AI-model-architecture
  • 1个月前 · ai

    📌 大多数模型使用 Grouped Query Attention。这并不意味着你的模型也应该如此。📌

    !文章插图https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazo...

    #grouped query attention #attention mechanisms #transformers #model efficiency #scalable AI #deep learning #neural network architecture
  • 1个月前 · ai

    NeurIPS 2025 最佳论文评审:Qwen 的注意力门控系统性探索

    这个小技巧可以提升训练的稳定性,使用更大的学习率,并改善可扩展性。The post NeurIPS 2025 Best P...

    #NeurIPS 2025 #attention gating #Qwen #training stability #large learning rates #scaling properties #deep learning #transformers
  • 1个月前 · ai

    位置编码与上下文窗口工程:为何 Token 顺序重要

    缩略词与技术术语参考 缩略词 - AI – 人工智能 - ALiBi – 带线性偏置的注意力 - API – 应用程序编程接口

    #positional-encoding #context-window #transformers #large-language-models #attention-mechanism #RoPE #ALiBi #token-order

Newer posts

Older posts
EUNO.NEWS
RSS GitHub © 2026