AI 시스템을 위한 결정론적 정책 방화벽을 구축하고 있습니다 — 기술 피드백을 원합니다

발행: (2025년 12월 25일 오후 02:58 GMT+9)
3 분 소요
원문: Dev.to

Source: Dev.to

Overview

저는 작지만 의견이 뚜렷한 시스템을 개발하고 있으며, 규제된 혹은 고위험 환경에서 AI를 다뤄본 사람들의 기술적인 피드백을 받고 싶습니다.

Core Idea

  • AI 시스템은 행동을 제안할 수 있습니다.
  • 그 행동이 실행될 수 있는지는 다른 무언가가 판단해야 합니다.

이 프로젝트는 완벽하게 “의도를 이해”하는 것이 목적이 아닙니다. 의도 정규화는 의도적으로 손실이 발생하도록 설계되었습니다(정규식 / LLM / 업스트림 시스템).

불변 조건은 다음과 같은 결정론적 정책 레이어입니다:

  • 위험하거나 불법적인 실행 차단
  • 입력이 모호할 경우 닫힌 상태로 실패
  • 변조를 감지할 수 있는 감사 로그 생성

이를 AI 에이전트를 위한 실행 방화벽 혹은 제어 평면이라고 생각하면 됩니다.

Tested Scenarios

  • Fintech – 대출 승인, AML‑스타일 제약
  • Healthtech – 처방 안전성, 통제 물질, 임신 여부
  • Legal – 인수합병, 반독점 기준
  • Other – 보험, 전자상거래, 정부 시나리오, 비구조화된 자연어 입력 포함

이는 초기 단계이며 의도적으로 보수적으로 설계되었습니다. 오탐은 에스컬레이션하고, 누락은 용납되지 않습니다.

Repository

Intent‑Engine‑Api on GitHub

Feedback Requested

저는 제품 피드백을 원하지 않습니다—주로 아키텍처에 대한 비판을 원합니다:

  • 어디에서 이 시스템이 무너질 수 있나요?
  • 배포한다면 어떤 점을 문제 삼겠습니까?
  • 실행 경계에서 무엇이 빠져 있나요?

가정에 대해 추가 설명이 필요하면 알려 주세요.

Back to Blog

관련 글

더 보기 »