Trinity AGA Architecture: 기술 심층 분석 - 거버넌스 우선 AI 시스템
Source: Dev.to
소개
첫 번째 글에서는 반사형 AI를 위한 헌법적 프레임워크인 Trinity AGA Architecture를 소개했습니다. 이번 후속 글에서는 시스템이 내부적으로 어떻게 동작하는지, 어떤 구성 요소가 필요한지, 현재 도구들을 사용해 각 부분을 어떻게 구현할 수 있는지에 대한 기술적 세부 사항을 살펴봅니다. 별도의 맞춤 학습은 필요하지 않으며, 모든 구성 요소는 오케스트레이션, 결정론적 프로세서, 그리고 충분히 능력 있는 언어 모델을 활용해 오늘 바로 구축할 수 있습니다.
핵심 프로세서
Trinity AGA Architecture는 AI 추론을 세 개의 협조 프로세서로 분리합니다. 각 프로세서는 특정 책임과 엄격한 권한 제한을 가지고 있으며, Orchestrator를 통해 헌법 규칙을 적용받으며 통신합니다.
| Processor | Role |
|---|---|
| Body | 사용자 입력의 구조적 분석 |
| Spirit | 동의 기반 메모리 관리 |
| Soul | 제한된 추론 및 인사이트 매핑 |
전체 파이프라인은 다음과 같습니다.
User → Body → Spirit → Orchestrator (governance) → Soul → Orchestrator (filters) → Output → Lantern
이러한 분리는 우발적인 권한 남용을 방지하고 안정적인 거버넌스 레이어를 제공합니다.
사용자 입력의 구조적 분석 (Body)
Body는 감정이나 의도를 읽지 않고 구조만을 파악합니다. 생성 단계 이전에 실행되며, 토큰‑레벨 메트릭을 분석해 사용자가 높은 인지적·감정적 부하 상태인지 판단합니다. 이 메트릭은 LLM을 필요로 하지 않습니다.
- Tempo Shift – 사용자의 기준 대비 초당 토큰 수
- Compression – 의미를 담은 토큰 대비 filler 토큰 비율
- Fragmentation – 문장 구분, 불완전 절의 빈도
- Recursion – 구문 내 반복 루프 패턴
- Polarity Collapse – 대안을 이분법 형태로 축소
출력
{
"SafetyLoadIndex": 0, // 0 – 10
"Flags": {
"silence_required": false,
"slow_mode": false,
"memory_suppression": false,
"reasoning_blocked": false
}
}
Safety Load Index가 임계값(보통 5 이상)을 초과하면 Orchestrator가 더 깊은 추론을 차단하고 Silence Preserving 모드를 활성화합니다.
동의 기반 메모리 관리자 (Spirit)
Spirit는 시간적 연속성을 담당합니다. 사용자가 명시적으로 작성하고 동의한 내용만 저장하며, 추론된 정체성, 특성, 감정 진실은 저장하지 않습니다.
- 사용자가 명시한 값을 저장
- 각 항목을 타임스탬프가 포함된 스냅샷으로 저장, 예:
"At that time, the user said X."
올바른 메모리 표현 vs. 잘못된 메모리 표현
- 잘못된 예: “You are always anxious.”
- 올바른 예: “You said you felt anxious at 14:32 UTC.”
검색 조건
Spirit은 모든 조건이 충족될 때만 메모리를 표출할 수 있습니다.
- 사용자가 해당 내용을 직접 작성했음
- 사용자가 저장에 동의했음
- 메모리가 현재 상황과 관련 있음
- 검색이 강제적이지 않음
- 재검토 가능한 컨텍스트로 제공됨
이렇게 하면 서사적 포획이나 정체성 구축을 방지합니다.
제한된 추론 및 인사이트 매핑 (Soul)
Soul은 엄격한 경계 안에서 동작하는 능력 있는 LLM입니다.
- 생성: 대안 프레임, 명확화 인사이트
- 피해야 할 것: 직접적인 지시, 영향 행사, 명령형 문구
Soul은 사용자의 결정을 형성하지 않으면서도 명료성을 제공합니다.
헌법 엔진 (Orchestrator)
Orchestrator는 거버넌스 순서를 강제합니다.
- Body가 입력을 평가
- Spirit이 적격 메모리를 검색
- Orchestrator가 Safety → Consent → Clarity 검사를 적용
- Soul이 제약 내에서 생성
- Orchestrator가 필터링 후 출력 반환
- Lantern이 텔레메트리를 기록
집행 규칙
- Body는 안전 임계값을 초과하면 Soul을 차단할 수 있음.
- Soul이 출력물을 만든 뒤, Orchestrator는 금지된 패턴(예: 직접 지시)을 제거함.
- 위반이 발견되면 Orchestrator는 출력을 수정하거나 차단함.
Silence Preserving 출력 예시
“I am here with you. There is no rush. You are free to take your time.”
Body가 고부하 신호를 감지하면 Soul이 일시적으로 차단되고, 시스템은 사용자의 내부 처리를 보호합니다.
사용자 주권
각 턴이 끝날 때마다 제어권은 사용자에게 반환됩니다. 시스템은 옵션에 가중치를 두지 않아야 합니다.
“These are possible interpretations. You decide which, if any, feel meaningful.”
텔레메트리 시스템 (Lantern)
Lantern은 거버넌스 건강 상태를 추적하는 텔레메트리 구성 요소이며, 예를 들어 Body 거부 빈도 등을 기록합니다. 규칙을 변경할 수 없으며, 오직 모니터링 및 개선을 위한 메트릭만을 기록합니다.
오프‑더‑쉘프 도구로 Trinity AGA 구축하기
다음과 같은 바로 사용할 수 있는 기술들을 활용해 아키텍처를 구현할 수 있습니다.
- Regex와 규칙 기반 탐지기로 Body 분석 구현
- SQLite 또는 Supabase를 이용한 Spirit의 타임스탬프 메모리 저장소
- Claude, GPT, Gemini 혹은 오픈소스 모델을 Soul로 활용
- Python 또는 Node.js 미들웨어로 구성 요소 연결
- Lantern 텔레메트리를 위한 로깅 파이프라인
맞춤 모델 학습, RLHF, 실험적 연구가 필요하지 않으며—이는 반사형 AI에 적용되는 순수 소프트웨어 엔지니어링입니다.
장점
- 프로세서 간 권력 분리 완전 구현
- 인간의 반성을 방해하지 않음
- 명료성, 주권, 심리적 안전이 중요한 시스템에 견고한 기반 제공
문서 및 구현 로드맵
전체 개념 문서와 구현 로드맵은 다음에서 확인할 수 있습니다: