EUNO.NEWS EUNO.NEWS
  • All (20038) +213
  • AI (3083) +12
  • DevOps (901) +6
  • Software (10306) +149
  • IT (5702) +46
  • Education (45)
  • Notice (1)
  • All (20038) +213
    • AI (3083) +12
    • DevOps (901) +6
    • Software (10306) +149
    • IT (5702) +46
    • Education (45)
  • Notice (1)
  • All (20038) +213
  • AI (3083) +12
  • DevOps (901) +6
  • Software (10306) +149
  • IT (5702) +46
  • Education (45)
  • Notice (1)
Sources Tags Search
한국어 English 中文
  • 1주 전 · ai

    Sopro TTS: 169M 모델, 제로샷 보이스 클로닝을 지원하며 CPU에서 실행

    번역할 텍스트(발췌 또는 요약)를 제공해 주시겠어요? 해당 내용을 한국어로 번역해 드리겠습니다.

    #text-to-speech #voice cloning #zero-shot #cpu inference #open-source #deep learning #speech synthesis #model compression #machine learning
  • 1개월 전 · ai

    OptiPFair 시리즈 #1: 작은 모델로 미래를 개척하다 — Pere Martra와 함께하는 건축 분석

    원래 Principia Agentica에 게재된 OptiPFair Series – Episode 1. Small Language Models(SLM) 최적화에 대한 심층 탐구. AI 경쟁은…

    #small language models #model optimization #pruning #bias removal #efficiency #LLM #AI fairness #model compression
  • 1개월 전 · ai

    AdaSPEC: 효율적인 추측 디코더를 위한 선택적 지식 증류

    Introduction AdaSPEC은 초기 생성 단계에서 작은 draft model을 사용하고, 그 다음 verification을 통해 large language models의 속도를 높이는 새로운 방법입니다.

    #speculative decoding #knowledge distillation #large language models #inference acceleration #draft model #AdaSPEC #AI efficiency #model compression
  • 1개월 전 · ai

    Z-Image GGUF 실용 가이드: 소비자 GPU로 최고 수준의 AI 아트 활용하기 (초보자 버전)

    소개: “GPU 불안”을 깨다 – 6 GB만 있어도 대형 모델을 실행할 수 있다 AI 아트 생성 세계에서, 고품질 모델은 보통 거대한 …

    #AI art #GGUF quantization #ComfyUI #GPU optimization #model compression
  • 1개월 전 · ai

    224× Llama-70B 압축, 높은 정확도 (논문 및 코드)

    번역할 텍스트를 제공해 주시겠어요?

    #model compression #Llama-70B #quantization #deep learning #paper #code
  • 1개월 전 · ai

    [Paper] CanKD: Feature 기반 Knowledge Distillation을 위한 Cross-Attention 기반 Non-local 연산

    우리는 Cross-Attention-based Non-local Knowledge Distillation (CanKD)이라는 새로운 feature-based knowledge distillation 프레임워크를 제안하며, 이 프레임워크는 cross-attention을 활용합니다.

    #knowledge distillation #cross-attention #computer vision #model compression #deep learning
EUNO.NEWS
RSS GitHub © 2026