[Paper] QiMeng-Kernel: 宏观思考 微观编码范式用于基于LLM的高性能GPU内核生成
开发高性能 GPU 内核对于 AI 和科学计算至关重要,但由于它依赖于专家级的手工编写且可移植性差,仍然具有挑战性。
开发高性能 GPU 内核对于 AI 和科学计算至关重要,但由于它依赖于专家级的手工编写且可移植性差,仍然具有挑战性。
异步联邦学习(FL)因其提升的效率和可扩展性而近期受到关注,使本地客户端能够将模型更新发送至 …
联邦学习(FL)已被广泛研究,作为一种保护隐私的训练范式。最近,联邦块坐标下降方案已成为……
AI 集成编程正逐渐成为构建具备大型语言模型(LLM)的智能系统的基础范式。最近的方法,例如 M...
Recent advancements in large language models (LLMs) have shown very impressive capabilities in code generation across many programming languages. However, even ... 近期在大型语言模型(LLMs)方面的进展显示出在多种编程语言的代码生成上非常令人印象深刻的能力。然而,即使……
近年来,机器学习和深度学习通过推动图像分类、语音识别和异常检测等领域的进步,取得了显著的成果。
对候选解表示的恰当选择对于进化算法及相关元启发式方法的效率至关重要。我们关注……
Linux 内核演进通过 API/ABI 变更、语义转变以及安全强化更新破坏驱动程序。我们介绍 **DRIVEBENCH**,一个可执行的语料库……
我们提出了一个新颖的框架,将大型语言模型(LLMs)集成到 Git bisect 过程中,以实现语义故障定位。传统的 bisect 假设……
大型语言模型(LLMs)正日益被集成到代码编辑器中,以提供 AI 驱动的代码建议。然而,许多这些建议被忽视、重新…
大型语言模型(LLMs)通过生成上下文感知的建议,彻底改变了代码自动补全。然而,何时向用户展示这些建议仍是一个挑战……
理解胶质母细胞瘤(GBM)如何从最初健康的胶质组织中出现,需要整合生物电、代谢以及多细胞动力学的模型。