EUNO.NEWS EUNO.NEWS
  • All (20292) +229
  • AI (3103) +13
  • DevOps (906) +6
  • Software (10480) +161
  • IT (5755) +49
  • Education (48)
  • Notice
  • All (20292) +229
    • AI (3103) +13
    • DevOps (906) +6
    • Software (10480) +161
    • IT (5755) +49
    • Education (48)
  • Notice
  • All (20292) +229
  • AI (3103) +13
  • DevOps (906) +6
  • Software (10480) +161
  • IT (5755) +49
  • Education (48)
  • Notice
Sources Tags Search
한국어 English 中文
  • 7小时前 · ai

    时间序列不足:图神经网络如何改变需求预测

    为什么将 SKU 建模为网络能够揭示传统预测所忽略的内容 — 该文章《Time Series Isn’t Enough: How Graph Neural Networks Change Demand Forecasting》

    #graph neural networks #demand forecasting #time series #supply chain analytics #machine learning #deep learning
  • 23小时前 · ai

    通过可视化 Python 示例理解 ReLU

    使用 ReLU 激活函数 在之前的文章中,我们使用了反向传播并绘制图表来正确预测数值。所有这些示例都采用……

    #ReLU #activation function #deep learning #neural networks #Python #visualization #machine learning
  • 1天前 · ai

    衡量 XAI 中公理非敏感性的正确方法

    正确衡量公理化非敏感性的方法 为什么你的 XAI 指标可能会欺骗你——以及我们是如何修复的 如果你曾经尝试实际衡量其稳定性……

    #XAI #explainability #non-sensitivity #attribution maps #AIXPlainer #metric evaluation #deep learning #computer vision
  • 1天前 · ai

    从零开始:训练 30M 拓扑 Transformer

    请提供您希望翻译的具体摘录或摘要文本,我才能为您进行简体中文翻译。

    #transformer #topological transformer #machine learning #deep learning #neural networks #model training #30M parameters
  • 3天前 · ai

    将 LLM 内存削减 84%:深入探讨 Fused Kernels

    为什么你的最终 LLM 层会 OOM,以及如何使用自定义 Triton kernel 来解决。文章《Cutting LLM Memory by 84%: A Deep Dive into Fused Kernels》已出现 fi...

    #LLM #memory optimization #fused kernels #Triton #GPU performance #deep learning #model inference
  • 3天前 · ai

    从 RGB 到 Lab:解决 AI 图像合成中的颜色伪影

    一种多层次的分割、颜色校正和特定领域增强方法。文章《从RGB到Lab:解决AI图像合成中的颜色伪影》

    #image compositing #color correction #RGB #Lab color space #segmentation #computer vision #deep learning #AI image processing
  • 3天前 · ai

    Show HN:高瘦网络的 Hessian 易于求逆

    事实证明,深度网络的 Hessian 的逆很容易作用于向量。若采用朴素方法,这在层数 s 上的运算量是立方级别的……

    #Hessian #deep learning #neural networks #second-order optimization #efficient algorithms
  • 4天前 · ai

    重新思考AI模型中的学习动态:基于实验的早期理论

    在观察神经网络训练期间的表示不稳定性时,实验神经网络训练行为时,我注意到一个重复出现的模式 t...

    #neural networks #representation learning #training dynamics #gradient descent #deep learning #model instability
  • 4天前 · ai

    👀 Attention 像5岁小孩一样解释

    什么是 AI 中的 Attention?Attention 的作用类似于语言模型的高亮笔。当你学习时,你会在文本中划出对重要部分的标记……

    #attention mechanism #transformers #natural language processing #deep learning #AI basics
  • 5天前 · ai

    注意力矩阵中的故障

    Transformer 人工制品的历史以及最新的修复研究。《注意力矩阵中的故障》首次发表于 Towards Data Science....

    #transformers #attention mechanism #deep learning #machine learning research #model artifacts
  • 5天前 · ai

    CNN之战:ResNet vs. MobileNet vs. EfficientNet 用于水果疾病检测

    引言 我一直对 deep learning 如何解决现实世界问题感到着迷,而 fruit disease detection 似乎是完美的挑战——不是...

    #fruit disease detection #ResNet #MobileNet #EfficientNet #deep learning #computer vision #image classification #agricultural AI
  • 6天前 · ai

    大型语言模型(LLMs)实际是如何生成文本的

    《大型语言模型(LLM)实际上如何生成文本》封面图片 https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,gravity=auto,format=au...

    #large language models #LLM #text generation #next-token prediction #deep learning #AI fundamentals

Newer posts

Older posts
EUNO.NEWS
RSS GitHub © 2026