EUNO.NEWS EUNO.NEWS
  • All (20038) +213
  • AI (3083) +12
  • DevOps (901) +6
  • Software (10306) +149
  • IT (5702) +46
  • Education (45)
  • Notice (1)
  • All (20038) +213
    • AI (3083) +12
    • DevOps (901) +6
    • Software (10306) +149
    • IT (5702) +46
    • Education (45)
  • Notice (1)
  • All (20038) +213
  • AI (3083) +12
  • DevOps (901) +6
  • Software (10306) +149
  • IT (5702) +46
  • Education (45)
  • Notice (1)
Sources Tags Search
한국어 English 中文
  • 3주 전 · ai

    머신러닝 “Advent Calendar” 24일차: Excel에서 텍스트를 위한 Transformers

    Transformers가 self‑attention을 사용하여 정적 단어 임베딩을 맥락적 표현으로 변환하는 과정을 직관적이고 단계별로 살펴보며, 간단한 예시를 통해 설명합니다.

    #transformers #self-attention #text embeddings #excel #machine learning #nlp #advent calendar
  • 3주 전 · ai

    Generative AI: 기술의 미래를 변화시키다

    Generative AI 이해하기 Generative AI는 머신러닝 모델, 특히 딥러닝 기술을 사용하여 기존 데이터와 유사한 새로운 데이터를 생성합니다.

    #generative AI #GAN #transformers #ChatGPT #DALL·E #deep learning #content creation #machine learning
  • 3주 전 · ai

    Transformers는 죽었다. 구글이 그들을 없앴고 – 그 뒤 침묵했다

    번역하려는 텍스트를 제공해 주시면 한국어로 번역해 드리겠습니다.

    #transformers #google #large-language-models #deep-learning #AI-research #model-deprecation
  • 0개월 전 · ai

    Transformers가 실제로 생각하는 방식: AI 언어 모델의 뇌 안에서

    소개 대부분의 사람들은 AI 모델을 신비로운 블랙 박스로 생각하지만, 그들은 과도하게 생각하고 있습니다. 모델에 문장을 입력하면, 모델은 단어를 보지 않습니다—i...

    #transformers #language-models #attention-mechanism #tokenization #vector-embeddings #LLM-explainability #AI-model-architecture
  • 1개월 전 · ai

    📌 대부분의 모델은 Grouped Query Attention을 사용합니다. 그렇다고 해서 여러분의 모델도 그래야 하는 것은 아닙니다.📌

    기사 일러스트 https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazo...

    #grouped query attention #attention mechanisms #transformers #model efficiency #scalable AI #deep learning #neural network architecture
  • 1개월 전 · ai

    NeurIPS 2025 베스트 페이퍼 리뷰: Qwen의 Attention Gating에 대한 체계적 탐구

    이 작은 트릭 하나만으로도 훈련 안정성이 향상되고, 더 큰 학습률을 사용할 수 있으며, 스케일링 특성이 개선됩니다. The post NeurIPS 2025 Best P...

    #NeurIPS 2025 #attention gating #Qwen #training stability #large learning rates #scaling properties #deep learning #transformers
  • 1개월 전 · ai

    포지셔널 인코딩 및 컨텍스트 윈도우 엔지니어링: 토큰 순서가 중요한 이유

    약어 및 기술 용어 참고 약어 - AI – 인공지능 - ALiBi – 선형 바이어스를 이용한 어텐션 - API – 애플리케이션 프로그래밍 인터페이스

    #positional-encoding #context-window #transformers #large-language-models #attention-mechanism #RoPE #ALiBi #token-order

Newer posts

Older posts
EUNO.NEWS
RSS GitHub © 2026