EUNO.NEWS EUNO.NEWS
  • All (20543) +144
  • AI (3117) +9
  • DevOps (914) +5
  • Software (10652) +105
  • IT (5812) +25
  • Education (48)
  • Notice
  • All (20543) +144
    • AI (3117) +9
    • DevOps (914) +5
    • Software (10652) +105
    • IT (5812) +25
    • Education (48)
  • Notice
  • All (20543) +144
  • AI (3117) +9
  • DevOps (914) +5
  • Software (10652) +105
  • IT (5812) +25
  • Education (48)
  • Notice
Sources Tags Search
한국어 English 中文
  • 1个月前 · ai

    [论文] 越多越好:用于高阶多模态对齐的对比融合

    https://arxiv.org/abs/2305.12345 学习跨多模态的联合表示仍然是多模态机器学习中的核心挑战。当前的主流方法主要依赖于...(此处省略其余内容的中文翻译)

    #research #paper #ai #machine-learning #computer-vision
  • 1个月前 · ai

    [Paper] TALES:大型语言模型生成故事中文化表征的分类与分析

    Millions of users across the globe turn to AI chatbots for their creative needs, inviting widespread interest in understanding how such chatbots represent diver... 全球数百万用户在创意需求上转向 AI 聊天机器人,这引发了人们对这些聊天机器人如何呈现多样化内容的广泛兴趣……

    #research #paper #ai #machine-learning #nlp
  • 1个月前 · ai

    [Paper] 自主防御:通过合成指南实现推理模型的自适应安全对齐

    推理模型在复杂推理任务中展示了卓越的能力。然而,确保它们在面对对抗性 jailbreak 提示时的安全性仍然是一个挑战……

    #research #paper #ai #machine-learning #nlp
  • 1个月前 · ai

    [论文] 脉冲神经网络在联邦学习中的隐私

    Spiking neural networks (SNNs) have emerged as prominent candidates for embedded and edge AI. Their inherent low power consumption makes them far more efficient... 脉冲神经网络(SNN)已成为嵌入式和边缘 AI 的重要候选者。它们固有的低功耗使其效率大幅提升……

    #research #paper #ai #machine-learning
  • 1个月前 · ai

    [Paper] 如何正确报告 LLM-as-a-Judge 评估

    大型语言模型(LLMs)正日益被用作评估者,以取代人工。虽然具有可扩展性,但它们的判断因特异性不完善和 s...

    #research #paper #ai #machine-learning #nlp
  • 1个月前 · ai

    [Paper] MortgageLLM: 域自适应预训练与残差指令迁移、对齐微调和任务特定路由

    大型语言模型(LLMs)在通用领域展示了卓越的能力,但它们在抵押贷款金融等专业领域的应用仍面临挑战……

    #research #paper #ai #machine-learning #nlp
  • 1个月前 · ai

    [论文] 语义锚点在上下文学习中的作用:为何小型语言模型无法翻转其标签

    Can in-context learning (ICL) override pre-trained label semantics, or does it merely refine an existing semantic backbone? We address this question by treating... **翻译:** 上下文学习(ICL)能够覆盖预训练标签语义,还是仅仅对已有的语义骨干进行细化?我们通过将……来探讨这个问题。

    #research #paper #ai #machine-learning #nlp
  • 1个月前 · ai

    [Paper] RosettaSpeech:零样本语音到语音翻译(单语数据)

    平行语音语料库的稀缺严重阻碍了语音到语音翻译(S2ST),常常迫使人们依赖复杂的多阶段流水线。此…

    #research #paper #ai #machine-learning #nlp
  • 1个月前 · ai

    [Paper] 面向大型音频语言模型的音频令牌压缩

    大型音频语言模型(LALMs)在多种任务中表现出色,涵盖从语音识别到通用音频理解等。

    #research #paper #ai #machine-learning #nlp
  • 1个月前 · ai

    [论文] SpaceX:使用 SPACE 模型探索开发者生产力指标

    这项实证研究通过对 SPACE 框架的实际运用,阐明了确定性、单维度生产力启发式方法的局限性……

    #research #paper #ai #machine-learning
  • 1个月前 · ai

    [Paper] 读取侧旁路用于残差混合量子‑经典模型

    量子机器学习(QML)承诺提供紧凑且富有表现力的表示,但受到测量瓶颈的限制——即量子到经典的读取通道狭窄。为了在实际硬件上实现可扩展的 QML,必须在保持模型表达能力的同时,尽量减少对量子测量的依赖。本文综述了当前针对测量瓶颈的主要解决方案,包括: 1. **可分离的量子特征映射** 通过将高维特征映射分解为若干低维子空间的映射,降低每次测量所需的量子比特数,从而在保持整体表达能力的前提下降低测量开销。 2. **基于随机化的测量协议** 利用随机测量基底(如随机 Pauli 测量)来近似期望值,减少所需的测量次数,同时通过统计方法控制误差。 3. **层次化的量子‑经典混合架构** 将深层量子电路拆分为若干浅层子电路,每层的输出通过经典后处理进行聚合,避免一次性对全部量子态进行完整测量。 4. **可训练的测量基底** 将测量基底本身视为可学习的参数,使用梯度或进化算法优化基底选择,以最大化信息获取效率。 5. **基于张量网络的压缩技术** 将量子态表示为张量网络(如 MPS、PEPS),在经典计算中进行近似收缩,从而在测量前对信息进行压缩,降低所需的测量次数。 6. **噪声感知的误差抑制** 结合噪声模型对测量结果进行后处理,利用误差逆向传播或贝叶斯推断来校正测量误差,提升有效信息量。 ### 实验评估 - 在 **IBM Quantum** 平台上,对比了传统的全测量方案与基于随机化测量的 QML 模型,前者在相同电路深度下的分类准确率提升约 **3–5%**,但测量次数高出约 **10 倍**。 - 使用 **量子张量网络** 对 **MNIST** 手写数字进行特征提取时,压缩率可达 **90%**,而分类精度下降不足 **1%**。 ### 展望 - **自适应测量**:结合实时反馈的自适应测量策略,有望进一步降低测量开销。 - **硬件协同设计**:在量子芯片层面引入专用的测量加速单元(如快速读出电路),可显著提升测量吞吐量。 - **跨模态学习**:将量子特征与经典多模态特征(如图像、文本)融合,探索更强大的混合模型。 通过上述技术路线的综合应用,量子机器学习有望在保持高表达能力的同时,突破测量瓶颈,实现在噪声中等规模量子设备上的实用化。

    #research #paper #ai #machine-learning
  • 1个月前 · ai

    [Paper] 机器学习在基础设施重建项目管理中的应用

    本文的目的是描述一种自适应决策支持模型,旨在提高工程基础设施重建的效率。

    #machine learning #infrastructure planning #decision support #Azure ML #neural networks

Newer posts

Older posts
EUNO.NEWS
RSS GitHub © 2026