· ai
[Paper] LLM驱动的内核演进:在 Linux 中自动化驱动更新
Linux 内核演进通过 API/ABI 变更、语义转变以及安全强化更新破坏驱动程序。我们介绍 **DRIVEBENCH**,一个可执行的语料库……
Linux 内核演进通过 API/ABI 变更、语义转变以及安全强化更新破坏驱动程序。我们介绍 **DRIVEBENCH**,一个可执行的语料库……
Deep Learning(DL)编译器已被广泛用于优化 DL 模型,以实现跨各种硬件的高效部署。由于它们在 DL...
内在函数是编译器提供的专用函数,能够高效地在特定架构的硬件上运行,使程序员能够编写…
我们提出了一个新颖的框架,将大型语言模型(LLMs)集成到 Git bisect 过程中,以实现语义故障定位。传统的 bisect 假设……
大型语言模型(LLMs)正日益被集成到代码编辑器中,以提供 AI 驱动的代码建议。然而,许多这些建议被忽视、重新…
大型语言模型(LLMs)通过生成上下文感知的建议,彻底改变了代码自动补全。然而,何时向用户展示这些建议仍是一个挑战……
大型语言模型(LLMs)即使在基准测试中表现强劲,也常常生成带有细微实现层面错误的代码。这些错误对LLMs来说很难……
理解胶质母细胞瘤(GBM)如何从最初健康的胶质组织中出现,需要整合生物电、代谢以及多细胞动力学的模型。
本研究的动机来源于有界约束问题数值优化中的鲁棒性问题:许多在特定基准上表现良好的算法,在稍作扰动的相同问题上可能会出现剧烈失败。我们提出了一类新算法,采用一种简单而有效的保障机制,基于类似信赖域的步长控制。该方法在理论上进行了分析,在标准假设下证明了全局收敛性,并在一套测试问题上展示了其实践性能,包括合成问题和真实案例。数值实验表明,所提方法在不牺牲效率的前提下显著提升了鲁棒性。