[Paper] 重新思考智能:类脑神经元网络

发布: (2026年1月27日 GMT+8 19:52)
3 分钟阅读
原文: arXiv

Source: arXiv - 2601.19508v1

概览

自出现以来,人工神经网络一直依赖人工设计的架构和归纳偏置,以更好地适应数据和任务。随着深度学习的兴起和参数空间的扩展,它们开始表现出类似大脑的功能行为。然而,人工神经网络在结构组织、学习机制和进化路径上仍与生物神经系统根本不同。从神经科学的视角出发,我们重新思考智能的形成与演化,并提出一种新的神经网络范式——类脑神经网络(Brain‑like Neural Network,BNN)

我们进一步展示了首个 BNN 实例——LuminaNet,该网络在不使用卷积或自注意力的情况下运行,并能够自主修改其架构。大量实验表明,LuminaNet 能通过动态结构变化实现自我进化。

  • CIFAR‑10: LuminaNet 在 Top‑1 准确率上比 LeNet‑5 提升 11.19 %,比 AlexNet 提升 5.46 %,在 MLP/ViT 系列模型中优于 MLP‑Mixer、ResMLP 和 DeiT‑Tiny。
  • TinyStories(文本生成): LuminaNet 达到 8.4 的困惑度,媲美单层 GPT‑2 风格的 Transformer,同时将计算成本降低约 25 %,峰值内存占用降低近 50 %

代码和交互式结构可在 https://github.com/aaroncomo/LuminaNet 获取。

主要贡献

  • 提出类脑神经网络(BNN)范式。
  • 开发 LuminaNet,一种无卷积、无自注意力且能够自我修改结构的架构。
  • 在图像分类(CIFAR‑10)和文本生成(TinyStories)任务上进行实证验证,展示了在资源消耗降低的情况下仍具竞争力的性能。
  • 开源代码和交互式模型。

方法论

详细的方法论请参阅完整论文。

实际意义

本研究有助于推动 cs.NE(神经与进化计算)领域的发展。

作者

  • Weifeng Liu

论文信息

  • arXiv ID: 2601.19508v1
  • 分类: cs.NE
  • 发布日期: 2026 年 1 月 27 日
  • PDF: Download PDF
Back to Blog

相关文章

阅读更多 »