EUNO.NEWS EUNO.NEWS
  • All (19986) +161
  • AI (3082) +11
  • DevOps (900) +5
  • Software (10279) +122
  • IT (5679) +23
  • Education (45)
  • Notice (1)
  • All (19986) +161
    • AI (3082) +11
    • DevOps (900) +5
    • Software (10279) +122
    • IT (5679) +23
    • Education (45)
  • Notice (1)
  • All (19986) +161
  • AI (3082) +11
  • DevOps (900) +5
  • Software (10279) +122
  • IT (5679) +23
  • Education (45)
  • Notice (1)
Sources Tags Search
한국어 English 中文
  • 3시간 전 · ai

    시계열만으로는 부족하다: Graph Neural Networks가 수요 예측을 바꾸다

    SKU를 네트워크로 모델링하면 전통적인 예측이 놓치는 부분을 드러냅니다. 게시물: 시계열만으로는 충분하지 않다: 그래프 신경망이 수요 예측을 어떻게 바꾸는가…

    #graph neural networks #demand forecasting #time series #supply chain analytics #machine learning #deep learning
  • 19시간 전 · ai

    시각적인 Python 예제로 ReLU 이해

    ReLU 활성화 함수를 사용하기 이전 기사들에서는 역전파(back‑propagation)를 사용하고 그래프를 그려 값을 정확히 예측했습니다. 모든 예제는 …

    #ReLU #activation function #deep learning #neural networks #Python #visualization #machine learning
  • 23시간 전 · ai

    XAI에서 Axiomatic Non‑Sensitivity를 측정하는 올바른 방법

    공리적 비민감성을 측정하는 올바른 방법 왜 당신의 XAI 메트릭이 거짓말을 할 수 있는지 — 그리고 우리가 그것을 고친 방법 만약 실제로 어떻게 …를 측정하려고 시도해 본 적이 있다면

    #XAI #explainability #non-sensitivity #attribution maps #AIXPlainer #metric evaluation #deep learning #computer vision
  • 1일 전 · ai

    처음부터 시작: 30M 토폴로지 트랜스포머 학습

    번역할 텍스트를 제공해 주시겠어요?

    #transformer #topological transformer #machine learning #deep learning #neural networks #model training #30M parameters
  • 3일 전 · ai

    LLM 메모리를 84% 절감: 퓨즈드 커널 심층 분석

    왜 최종 LLM 레이어가 OOM이 발생하는지와 커스텀 Triton 커널로 이를 해결하는 방법. The post Cutting LLM Memory by 84%: A Deep Dive into Fused Kernels appeared fi...

    #LLM #memory optimization #fused kernels #Triton #GPU performance #deep learning #model inference
  • 3일 전 · ai

    RGB에서 Lab으로: AI 이미지 합성에서 색상 아티팩트 해결

    다중 계층 접근 방식으로 세분화, 색 보정 및 도메인별 향상 게시물: From RGB to Lab: AI 이미지 합성에서 색 왜곡 해결

    #image compositing #color correction #RGB #Lab color space #segmentation #computer vision #deep learning #AI image processing
  • 3일 전 · ai

    Show HN: 키가 크고 얇은 네트워크의 Hessian은 역으로 구하기가 쉽다

    딥넷의 Hessian의 역(inverse)을 벡터에 적용하는 것이 쉽다는 것이 밝혀졌다. 이를 단순히 수행하면 레이어 수 s에 대해 연산량이 세제곱으로 증가한다.

    #Hessian #deep learning #neural networks #second-order optimization #efficient algorithms
  • 4일 전 · ai

    AI 모델의 학습 역학 재고: 실험을 통한 초기 이론

    신경망 훈련 중 표현 불안정성 관찰 신경망 훈련 행동을 실험하면서, 나는 반복되는 패턴을 발견했다.

    #neural networks #representation learning #training dynamics #gradient descent #deep learning #model instability
  • 4일 전 · ai

    👀 어텐션을 5살 아이에게 설명하듯

    AI에서 Attention이란 무엇인가? Attention은 언어 모델에 대한 하이라이터와 같습니다. 공부할 때 텍스트에서 중요한 부분을 밑줄 그리듯이…

    #attention mechanism #transformers #natural language processing #deep learning #AI basics
  • 5일 전 · ai

    Attention Matrix의 글리치

    Transformer 아티팩트의 역사와 이를 해결하기 위한 최신 연구. “Glitches in the Attention Matrix” 포스트는 Towards Data Science에 처음 게재되었습니다....

    #transformers #attention mechanism #deep learning #machine learning research #model artifacts
  • 5일 전 · ai

    CNN 전쟁: 과일 질병 감지를 위한 ResNet vs. MobileNet vs. EfficientNet

    서론 나는 딥러닝이 실제 문제를 해결하는 방식에 항상 매료되어 왔으며, 과일 질병 감지는 완벽한 도전 과제로 보였다—​not...

    #fruit disease detection #ResNet #MobileNet #EfficientNet #deep learning #computer vision #image classification #agricultural AI
  • 6일 전 · ai

    Large Language Models (LLMs)가 실제로 텍스트를 생성하는 방법

    ‘How Large Language Models LLMs Actually Generate Text’의 표지 이미지 https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,gravity=auto,format=au...

    #large language models #LLM #text generation #next-token prediction #deep learning #AI fundamentals

Newer posts

Older posts
EUNO.NEWS
RSS GitHub © 2026