EUNO.NEWS EUNO.NEWS
  • All (19986) +161
  • AI (3082) +11
  • DevOps (900) +5
  • Software (10279) +122
  • IT (5679) +23
  • Education (45)
  • Notice (1)
  • All (19986) +161
    • AI (3082) +11
    • DevOps (900) +5
    • Software (10279) +122
    • IT (5679) +23
    • Education (45)
  • Notice (1)
  • All (19986) +161
  • AI (3082) +11
  • DevOps (900) +5
  • Software (10279) +122
  • IT (5679) +23
  • Education (45)
  • Notice (1)
Sources Tags Search
한국어 English 中文
  • 22시간 전 · ai

    LLM이란? ChatGPT, GPT 및 AI 언어 모델이 실제로 작동하는 방식 (초보자 가이드)

    Read more about LLM이란? ChatGPT, GPT 및 AI 언어 모델이 실제로 작동하는 방식 (초보자 가

    #large language models #LLM #ChatGPT #GPT #transformers #tokens #AI basics #beginner guide
  • 3일 전 · ai

    Generative AI의 기본 개념 설명

    markdown 🤖 시험 가이드: AI Practitioner Domain 2 – Fundamentals of Generative AI Task Statement 2.1 Domain 1은 AI/ML의 언어를 제공합니다. Domain 2는 …

    #generative AI #foundation models #tokens #embeddings #transformers #diffusion models #AWS exam #AI practitioner
  • 4일 전 · ai

    👀 어텐션을 5살 아이에게 설명하듯

    AI에서 Attention이란 무엇인가? Attention은 언어 모델에 대한 하이라이터와 같습니다. 공부할 때 텍스트에서 중요한 부분을 밑줄 그리듯이…

    #attention mechanism #transformers #natural language processing #deep learning #AI basics
  • 5일 전 · ai

    Attention Matrix의 글리치

    Transformer 아티팩트의 역사와 이를 해결하기 위한 최신 연구. “Glitches in the Attention Matrix” 포스트는 Towards Data Science에 처음 게재되었습니다....

    #transformers #attention mechanism #deep learning #machine learning research #model artifacts
  • 1주 전 · ai

    [TIL] Ji Yichao, Manus 수석 과학자와의 3시간 인터뷰 (Meta에 인수됨)

    2026년 1월 5일 Full Video https://www.youtube.com/watch?v=UqMtkgQe-kI 이 3시간 인터뷰는 Manus의 Chief Scientist인 Ji Yichao와 진행되었으며, 이후 Met에 인수되었습니다.

    #AI #LLM #AI agents #Transformers #Manus #Meta acquisition #AI entrepreneurship #AI interview
  • 1주 전 · ai

    코드가 트랜스포머의 수학적 미스터리를 없애는 방법

    왜 Transformers는 아무도 요구하지 않아도 질서를 혼돈보다 선호할까…? Spoiler: 그들은 실제로 요구했어요.

    #transformers #geometric memorization #deep learning research #arXiv paper #sequence models
  • 1주 전 · ai

    DLCM 이해하기: 핵심 아키텍처에 대한 심층 탐구 및 인과 인코딩의 힘

    현대 언어 모델과 동적 잠재 개념 모델 DLCM 현대 언어 모델은 단순한 토큰‑바이‑토큰 처리 방식을 넘어 진화했으며, 동적 L...

    #DLCM #causal encoding #language models #model architecture #deep learning #transformers #hierarchical modeling
  • 1주 전 · ai

    Attention Heads를 이해하려고 (대부분 실패) 시도하면서 배운 것

    제가 처음에 믿었던 것 깊이 파고들기 전에, 저는 몇 가지를 암묵적으로 믿고 있었습니다: - 만약 attention head가 특정 token에 지속적으로 주의를 기울인다면, 그 token은…

    #attention #transformers #language models #interpretability #machine learning #neural networks #NLP
  • 1주 전 · ai

    메모리 효율적인 언어 생성을 위한 계층적 자동회귀 모델링

    번역할 텍스트를 제공해 주시겠어요?

    #hierarchical modeling #autoregressive #language generation #memory-efficient #large language models #transformers #AI research #arXiv
  • 1주 전 · ai

    TTT-E2E: 읽으면서 학습하는 AI 모델 (KV 캐시와 작별?)

    정적 메모리 뱅크에 정보를 단순히 저장하는 것이 아니라, 긴 문서를 처리하면서 내부 이해를 실제로 향상시키는 AI를 상상해 보세요. A c...

    #test-time training #long-context modeling #transformers #KV cache #continual learning #TTT-E2E #Stanford #NVIDIA #UC Berkeley
  • 3주 전 · ai

    파트 2: 왜 Transformers는 여전히 잊어버리는가

    파트 2 – 왜 장기 컨텍스트 언어 모델은 여전히 메모리와 씨름하는가 (3부 시리즈 중 두 번째) 파트 1에서 https://forem.com/harvesh_kumar/part-1-long-context-...

    #transformers #long-context #memory #language-models #deep-learning #AI-research
  • 3주 전 · ai

    Hugging Face Transformers 실전: AI를 활용한 NLP 학습

    AI를 사용해 이력서 감정을 몇 초 만에 분석하는 방법과 Hugging Face Transformers에 대한 실용적인 가이드. The post Hugging Face Transformers in Action:...

    #huggingface #transformers #nlp #sentiment-analysis #resume-analysis #practical-guide

Newer posts

Older posts
EUNO.NEWS
RSS GitHub © 2026