[Paper] 지능 재고: 뇌와 유사한 뉴런 네트워크
Source: arXiv - 2601.19508v1
Overview
인공 신경망은 처음 등장했을 때부터 데이터와 작업에 더 잘 적응하도록 수동으로 설계된 아키텍처와 귀납적 편향에 의존해 왔습니다. 딥러닝의 부상과 파라미터 공간의 확대와 함께, 이들은 점점 뇌와 유사한 기능적 행동을 보이기 시작했습니다. 그럼에도 불구하고 인공 신경망은 구조적 조직, 학습 메커니즘, 진화 경로 측면에서 생물학적 신경 시스템과 근본적으로 다릅니다. 신경과학의 관점에서 우리는 지능의 형성과 진화를 재고하고 새로운 신경망 패러다임인 **Brain‑like Neural Network (BNN)**을 제안합니다.
또한 우리는 LuminaNet이라는 최초의 BNN 구현을 제시합니다. LuminaNet은 컨볼루션이나 자체‑어텐션 없이 동작하며 스스로 아키텍처를 수정할 수 있습니다. 광범위한 실험을 통해 LuminaNet이 동적 아키텍처 변화를 통한 자기‑진화를 달성할 수 있음을 보여줍니다.
- CIFAR‑10: LuminaNet은 LeNet‑5 대비 11.19 %, AlexNet 대비 **5.46 %**의 Top‑1 정확도 향상을 달성했으며, MLP‑Mixer, ResMLP, DeiT‑Tiny 등 MLP/ViT 아키텍처를 능가합니다.
- TinyStories (텍스트 생성): LuminaNet은 퍼플렉시티 8.4를 기록했으며, 이는 단일 레이어 GPT‑2‑스타일 트랜스포머와 비슷한 수준이면서도 계산 비용을 약 25 % 감소시키고 피크 메모리 사용량을 거의 50 % 절감했습니다.
코드와 인터랙티브 구조는 https://github.com/aaroncomo/LuminaNet에서 확인할 수 있습니다.
Key Contributions
- Brain‑like Neural Network (BNN) 패러다임 도입.
- 컨볼루션 및 자체‑어텐션 없이 구조를 스스로 수정할 수 있는 LuminaNet 아키텍처 개발.
- 이미지 분류(CIFAR‑10)와 텍스트 생성(TinyStories) 작업에 대한 실증적 검증을 통해 자원 소비를 줄이면서 경쟁력 있는 성능을 입증.
- 코드와 인터랙티브 모델을 오픈소스로 공개.
Methodology
자세한 방법론은 전체 논문을 참고하십시오.
Practical Implications
이 연구는 cs.NE(Neural and Evolutionary Computing) 분야의 발전에 기여합니다.
Authors
- Weifeng Liu
Paper Information
- arXiv ID: 2601.19508v1
- Categories: cs.NE
- Published: 2026년 1월 27일
- PDF: Download PDF