[Paper] 重新思考智能:类脑神经元网络
发布: (2026年1月27日 GMT+8 19:52)
3 分钟阅读
原文: arXiv
Source: arXiv - 2601.19508v1
概览
自出现以来,人工神经网络一直依赖人工设计的架构和归纳偏置,以更好地适应数据和任务。随着深度学习的兴起和参数空间的扩展,它们开始表现出类似大脑的功能行为。然而,人工神经网络在结构组织、学习机制和进化路径上仍与生物神经系统根本不同。从神经科学的视角出发,我们重新思考智能的形成与演化,并提出一种新的神经网络范式——类脑神经网络(Brain‑like Neural Network,BNN)。
我们进一步展示了首个 BNN 实例——LuminaNet,该网络在不使用卷积或自注意力的情况下运行,并能够自主修改其架构。大量实验表明,LuminaNet 能通过动态结构变化实现自我进化。
- CIFAR‑10: LuminaNet 在 Top‑1 准确率上比 LeNet‑5 提升 11.19 %,比 AlexNet 提升 5.46 %,在 MLP/ViT 系列模型中优于 MLP‑Mixer、ResMLP 和 DeiT‑Tiny。
- TinyStories(文本生成): LuminaNet 达到 8.4 的困惑度,媲美单层 GPT‑2 风格的 Transformer,同时将计算成本降低约 25 %,峰值内存占用降低近 50 %。
代码和交互式结构可在 https://github.com/aaroncomo/LuminaNet 获取。
主要贡献
- 提出类脑神经网络(BNN)范式。
- 开发 LuminaNet,一种无卷积、无自注意力且能够自我修改结构的架构。
- 在图像分类(CIFAR‑10)和文本生成(TinyStories)任务上进行实证验证,展示了在资源消耗降低的情况下仍具竞争力的性能。
- 开源代码和交互式模型。
方法论
详细的方法论请参阅完整论文。
实际意义
本研究有助于推动 cs.NE(神经与进化计算)领域的发展。
作者
- Weifeng Liu
论文信息
- arXiv ID: 2601.19508v1
- 分类: cs.NE
- 发布日期: 2026 年 1 月 27 日
- PDF: Download PDF