EUNO.NEWS EUNO.NEWS
  • All (20292) +229
  • AI (3103) +13
  • DevOps (906) +6
  • Software (10480) +161
  • IT (5755) +49
  • Education (48)
  • Notice
  • All (20292) +229
    • AI (3103) +13
    • DevOps (906) +6
    • Software (10480) +161
    • IT (5755) +49
    • Education (48)
  • Notice
  • All (20292) +229
  • AI (3103) +13
  • DevOps (906) +6
  • Software (10480) +161
  • IT (5755) +49
  • Education (48)
  • Notice
Sources Tags Search
한국어 English 中文
  • 1周前 · ai

    Sopro TTS:一个 169M 模型,具备零样本语音克隆,能够在 CPU 上运行

    请提供您希望翻译的具体摘录或摘要文本,我才能为您进行简体中文翻译。

    #text-to-speech #voice cloning #zero-shot #cpu inference #open-source #deep learning #speech synthesis #model compression #machine learning
  • 1个月前 · ai

    OptiPFair 系列 #1:用小模型锻造未来 — 与 Pere Martra 的架构分析

    最初发表于 Principia Agentica《OptiPFair 系列》——第 1 集,对小型语言模型(SLM)优化的深度探索。AI 竞赛已经…

    #small language models #model optimization #pruning #bias removal #efficiency #LLM #AI fairness #model compression
  • 1个月前 · ai

    AdaSPEC:用于高效投机解码器的选择性知识蒸馏

    引言 AdaSPEC 是一种新方法,通过使用小型草稿模型进行初始生成阶段,然后进行验证,以加速大语言模型。

    #speculative decoding #knowledge distillation #large language models #inference acceleration #draft model #AdaSPEC #AI efficiency #model compression
  • 1个月前 · ai

    Z-Image GGUF 实用指南:使用消费级 GPU 解锁顶级 AI 艺术(初学者版)

    引言:打破“GPU焦虑”——即使是6 GB也能运行大型模型 在AI艺术生成的世界中,更高质量的模型通常伴随着巨大的…

    #AI art #GGUF quantization #ComfyUI #GPU optimization #model compression
  • 1个月前 · ai

    224× 压缩 Llama-70B,获得更高精度(论文与代码)

    Article URL: https://zenodo.org/records/17873275 Comments URL: https://news.ycombinator.com/item?id=46212969 Points: 14 Comments: 5...

    #model compression #Llama-70B #quantization #deep learning #paper #code
  • 1个月前 · ai

    [Paper] CanKD:基于跨注意力的非局部操作用于基于特征的知识蒸馏

    我们提出了 Cross-Attention-based Non-local Knowledge Distillation (CanKD),一种利用 cross-attention 的新型基于特征的知识蒸馏框架。

    #knowledge distillation #cross-attention #computer vision #model compression #deep learning
EUNO.NEWS
RSS GitHub © 2026