[Paper] Physics-Informed Neural Networks for Device and Circuit Modeling: NeuroSPICE 사례 연구

발행: (2025년 12월 30일 오전 02:28 GMT+9)
8 min read
원문: arXiv

Source: arXiv - 2512.23624v1

Overview

The paper introduces NeuroSPICE, a novel framework that replaces the classic SPICE numerical solvers with physics‑informed neural networks (PINNs) to simulate electronic devices and circuits. By embedding the circuit’s differential‑algebraic equations directly into a neural network’s loss function, NeuroSPICE can generate waveforms and their exact time derivatives, opening new pathways for design‑space exploration and inverse‑problem solving.

주요 기여

  • PINN‑기반 회로 솔버: 회로 DAE 잔차를 손실로 공식화하여 역전파를 통해 최소화함으로써 전통적인 시간‑스텝 방식이 필요 없게 함.
  • 분석적 시간‑도메인 파형: 네트워크가 전압/전류에 대한 폐쇄형 표현을 출력하여 하위 작업에 필요한 정확한 시간 미분을 제공함.
  • 최적화를 위한 대리 모델링: 학습된 PINN이 장치‑레벨 및 회로‑레벨 설계 최적화를 위한 빠르고 미분 가능한 대리 모델로 작동할 수 있음을 보여줌.
  • 신흥 고비선형 장치 지원: 강한 비선형성과 히스테리시스 때문에 기존 SPICE로 어려운 강유전체 메모리 셀에 대한 적용 가능성을 입증함.
  • 오픈‑소스 사례 연구 (NeuroSPICE): 다른 장치 모델 및 회로 토폴로지에 확장할 수 있는 재현 가능한 구현을 제공함.

방법론

  1. 회로 공식화: 저자들은 표준 수정 노드 분석(Modified Nodal Analysis, MNA) 표현에서 시작하여 회로 동역학을 설명하는 일련의 DAE(미분‑대수 방정식)를 도출합니다.
  2. 신경망 구조: 완전 연결 피드‑포워드 네트워크가 시간 t를 입력으로 받아 노드 전압 및 가지 전류 벡터를 출력합니다.
  3. 물리‑정보 손실
    • 네트워크의 자동 미분 엔진이 출력값의 정확한 시간 미분을 계산합니다.
    • 이 미분값을 DAE에 다시 대입하여 잔차 벡터를 생성합니다.
    • 손실은 콜로케이션 포인트(샘플링된 시간) 집합에 대한 평균 제곱 잔차입니다.
  4. 학습 루프: 확률적 경사 하강법(Adam)을 사용하여 네트워크 파라미터를 업데이트하고 잔차를 0에 가깝게 만듭니다. 라벨이 있는 시뮬레이션 데이터는 필요 없으며, 오직 지배 방정식만 필요합니다.
  5. 대체 모델 활용: 학습이 완료되면 네트워크를 임의의 시간에 쿼리할 수 있으며, 미분 가능성 덕분에 목표 파형을 달성하는 장치 파라미터 찾기와 같은 그래디언트 기반 최적화 또는 역설계에 활용할 수 있습니다.

결과 및 발견

벤치마크SPICE (reference)NeuroSPICE (trained PINN)관찰 내용
단순 RC 저역통과 필터정확함, <1 ms 실행 시간파형 형태가 비슷함, 훈련 시 약 10× 느리지만 추론은 <0.1 ms수렴 후 정확도가 동등함; 훈련 비용이 주요 오버헤드
강유전체 메모리 셀 (비선형 히스테리시스)수렴 문제, 매우 작은 타임스텝 필요안정적인 훈련, 히스테리시스 루프를 정확히 포착PINN은 솔버 허용오차를 조정하지 않고도 강한 비선형성을 처리함
설계 공간 스윕 (소자 정전용량)반복적인 SPICE 실행 필요단일 훈련된 PINN을 사용해 그래디언트 기반 스윕 수행, 5‑10× 속도 향상대리 모델의 장점을 보여줌

전반적으로 NeuroSPICE는 원시 시뮬레이션 속도나 즉시 사용 가능한 정확도 면에서 SPICE를 능가하지 않지만, 정확한 분석 파형미분 가능한 대리 모델을 제공하여 여러 설계 반복에 재사용할 수 있다.

Practical Implications

  • Rapid Design Optimization: 엔지니어는 훈련된 PINN을 그래디언트‑디센트 루프에 삽입하여 장치 파라미터(예: 임계 전압, 정전용량)를 각 반복마다 전체 SPICE 시뮬레이션을 다시 실행하지 않고 조정할 수 있다.
  • Inverse Modeling & Parameter Extraction: 측정된 파형이 주어지면 PINN을 통한 역전파로 기본 장치 특성을 추정할 수 있으며, 이는 특성화 실험실에 유용한 도구이다.
  • Modeling Emerging Devices: SPICE 모델이 미성숙한 새로운 부품(멤리스터, 강유전체 FET, 양자점 소자 등)의 경우, 물리 기반 PINN을 지배 방정식에서 직접 구축하여 프로토타이핑 속도를 높일 수 있다.
  • Hardware‑Accelerated Simulation: 추론 단계가 신경망의 순전파에 불과하므로 GPU, TPU, 혹은 엣지 ASIC에 오프로드할 수 있어 하드웨어‑인‑더‑루프 테스트에서 실시간 회로 에뮬레이션을 가능하게 한다.
  • Educational & Research Use: 출력이 분석적 특성을 가지므로 회로 동작을 시각화하고 미분하기가 쉬워 교육 및 탐색적 연구에 도움이 된다.

제한 사항 및 향후 작업

  • 학습 오버헤드: PINN을 SPICE‑레벨 정확도로 수렴시키려면 수천 에포크가 필요할 수 있어, 초기 비용이 일회성 SPICE 실행보다 높아집니다.
  • 확장성: 이 연구는 소규모에서 중간 규모 회로에 초점을 맞추고 있으며, 대형 아날로그/RF 블록으로 확장하려면 보다 정교한 아키텍처(예: 그래프 신경망)나 도메인 분해가 필요할 수 있습니다.
  • 정확도 보장: 손실 함수가 지배 방정식을 강제하지만, 특히 강성 영역이나 불연속점 근처에서는 수치 오류가 누적될 수 있습니다. 공식적인 오류 경계는 제공되지 않았습니다.
  • 향후 방향: 저자들은 적응형 콜로케이션 전략, 하이브리드 PINN‑SPICE 솔버(PINN을 SPICE가 어려워하는 부분에서만 대리 모델로 사용) 탐색 및 학습된 디바이스 모델을 표준 EDA 툴체인에 통합하는 것을 제안합니다.

저자

  • Chien‑Ting Tung
  • Chenming Hu

논문 정보

  • arXiv ID: 2512.23624v1
  • 분류: cs.AI, physics.app-ph
  • 출판일: 2025년 12월 29일
  • PDF: Download PDF
Back to Blog

관련 글

더 보기 »