AI 시스템을 위한 결정론적 정책 방화벽을 구축하고 있습니다 — 기술 피드백을 원합니다
Source: Dev.to
Overview
저는 작지만 의견이 뚜렷한 시스템을 개발하고 있으며, 규제된 혹은 고위험 환경에서 AI를 다뤄본 사람들의 기술적인 피드백을 받고 싶습니다.
Core Idea
- AI 시스템은 행동을 제안할 수 있습니다.
- 그 행동이 실행될 수 있는지는 다른 무언가가 판단해야 합니다.
이 프로젝트는 완벽하게 “의도를 이해”하는 것이 목적이 아닙니다. 의도 정규화는 의도적으로 손실이 발생하도록 설계되었습니다(정규식 / LLM / 업스트림 시스템).
불변 조건은 다음과 같은 결정론적 정책 레이어입니다:
- 위험하거나 불법적인 실행 차단
- 입력이 모호할 경우 닫힌 상태로 실패
- 변조를 감지할 수 있는 감사 로그 생성
이를 AI 에이전트를 위한 실행 방화벽 혹은 제어 평면이라고 생각하면 됩니다.
Tested Scenarios
- Fintech – 대출 승인, AML‑스타일 제약
- Healthtech – 처방 안전성, 통제 물질, 임신 여부
- Legal – 인수합병, 반독점 기준
- Other – 보험, 전자상거래, 정부 시나리오, 비구조화된 자연어 입력 포함
이는 초기 단계이며 의도적으로 보수적으로 설계되었습니다. 오탐은 에스컬레이션하고, 누락은 용납되지 않습니다.
Repository
Feedback Requested
저는 제품 피드백을 원하지 않습니다—주로 아키텍처에 대한 비판을 원합니다:
- 어디에서 이 시스템이 무너질 수 있나요?
- 배포한다면 어떤 점을 문제 삼겠습니까?
- 실행 경계에서 무엇이 빠져 있나요?
가정에 대해 추가 설명이 필요하면 알려 주세요.