[Paper] 기호에서 의미로: 정보 시스템 공학에서 Large Language Models에 대한 존재론적 및 철학적 고찰
Source: arXiv - 2603.17659v1
개요
From Symbol to Meaning 논문은 대형 언어 모델(LLM)의 부상이 정보 시스템 엔지니어링(Information Systems Engineering, ISE)의 철학적 기반을 재고하도록 강요하는 방식을 검토한다. 기호학, 존재론, 그리고 현대 AI의 아이디어를 엮어, 저자는 LLM이 단순히 강력한 코드‑생성 도구에 그치지 않고, 데이터와 시스템을 모델링하고, 표현하며, 추론하는 방식을 재구성하는 “인식론적 에이전트” 역할을 한다고 주장한다.
Key Contributions
- Philosophical Re‑framing: 고전 철학 전통(피어스의 기호학, 하이데거의 존재론, 플로리디의 정보 철학)을 현대 LLM의 메커니즘과 연결한다.
- Ontological Shift: 생성 모델이 symbol (원시 토큰)과 meaning (맥락적 해석) 사이의 경계를 흐리게 하여 전통적인 IS 설계에서 사용되는 정적 데이터 모델에 도전한다.
- Epistemic Agency Concept: LLM을 사전 정의된 논리를 수동적으로 실행하는 것이 아니라 지식을 공동 생산하는 에이전트로 보는 개념을 제안한다.
- Ethical Blueprint: 투명성 및 인간 중심 기준의 집합을 제시하여 LLM을 기업 정보 시스템에 통합할 때 지침으로 삼는다.
- Design Implications: 추적 가능성, 책임성, 해석 가능성을 유지하면서 LLM 기반 구성 요소를 삽입하기 위한 고수준 로드맵을 제공한다.
방법론
저자는 conceptual‑analytic 접근 방식을 채택합니다:
- Literature Synthesis: 기호학, 존재론, 정보 윤리 분야의 주요 작업들을 검토하여 철학적 골격을 구축합니다.
- Technical Mapping: LLM의 내부 워크플로우(토큰화 → 임베딩 → transformer‑based attention → 다음 토큰 예측)를 분해하고, 각 단계를 기호, 지시 대상, 의미에 관한 철학적 개념과 정렬합니다.
- Critical Reflection: 사고 실험 및 사례 스니펫(예: LLM‑생성 API 사양, 자동 요구사항 추출)을 사용하여 전통적인 IS 모델이 성공하거나 실패하는 지점을 보여줍니다.
- Normative Framework Construction: 앞서의 철학적 분석에 기반하여 모델 자율성과 인간 감독을 균형 있게 맞추는 일련의 설계 원칙을 도출합니다.
이 방법론은 고수준으로 유지되며—새로운 실증 실험은 보고되지 않음—LLM 작동 방식에 익숙하지만 깊은 철학적 용어에 익숙하지 않은 개발자들이 논의를 이해하기 쉽게 합니다.
결과 및 발견
| 발견 | IS 엔지니어링에 대한 의미 |
|---|---|
| LLM은 기호/의미 계층을 붕괴시킴 | 데이터 스키마를 더 이상 불변의 “진실”로 취급할 수 없으며, 모델 업데이트와 함께 진화하는 유동적인 해석이 된다. |
| 모델 출력은 잠정적인 지식 주장으로 작용 | 시스템 설계자는 LLM 제안을 최종 사양이 아니라 검증이 필요한 가설로 다루어야 한다. |
| 투명성 격차는 인식론적 위험 | 명시적인 출처(프롬프트, 온도, 파인‑튜닝 데이터)가 없으면 하위 시스템이 숨겨진 편향을 물려받는다. |
| 인간‑인‑루프는 여전히 필수 | 고성능 LLM이라도 도메인 전문가가 생성된 산출물과 규제/컴플라이언스 제약 사이를 중재해야 한다. |
이러한 통찰은 전통적인 “설계‑후‑구현” 파이프라인에 지속적인 검증 루프와 메타데이터 추적을 추가해야 함을 시사한다.
Practical Implications
- Design‑by‑Prompt: 엔지니어는 LLM에 프롬프트를 제공하여 데이터 모델, API 계약, UI 텍스트 등을 프로토타이핑할 수 있지만, 감사 가능성을 위해 버전 관리된 프롬프트와 응답 로그를 CI/CD 파이프라인에 포함시켜야 합니다.
- Dynamic Schema Management: LLM이 생성한 마이그레이션에 의해 구동되는 runtime 스키마 진화를 지원하는 schema‑as‑code 도구(예: Liquibase, dbt)를 채택하고 자동 회귀 테스트와 결합합니다.
- Explainability Layer: LLM 호출을 “reasoning wrapper”로 감싸서 어텐션 가중치, 토큰 확률, 원본 데이터 스니펫을 캡처하고 이를 개발자와 감사자에게 공개합니다.
- Ethical Guardrails: 정책 기반 필터(예: OpenAI의 콘텐츠 검토)와 인간 검토 체크포인트를 구현하여 LLM 출력이 프로덕션 시스템에 영향을 미치기 전에 검증합니다.
- Knowledge‑Centric Architecture: 순수 데이터 중심 파이프라인에서 knowledge‑centric 파이프라인으로 전환하여 LLM이 추론 레이어에 기여하고 시스템이 각 추론의 출처를 기록하도록 합니다.
In short, the paper nudges the industry toward transparent, accountable, and co‑creative AI‑augmented system engineering practices.
제한 사항 및 향후 연구
- 개념적 범위: 논문은 철학적 및 아키텍처 수준에 머물며 구체적인 성능 벤치마크나 도구 프로토타입을 제공하지 않는다.
- 도메인 특수성: 논거는 일반 IS 엔지니어링을 대상으로 하지만, 고도로 규제된 분야(예: 금융, 의료)에 대한 구체적인 가이드라인은 향후 작업으로 남겨둔다.
- 경험적 검증: 향후 연구에서는 제안된 설계 원칙을 실제 LLM‑기반 시스템에 적용한 사례 연구를 수행하여 유지보수성, 규정 준수, 개발자 생산성에 미치는 영향을 측정할 수 있다.
개발자들이 실험을 열망한다면, 실용적인 첫 단계는 모든 LLM 상호작용(프롬프트, 파라미터, 응답)을 버전 관리 시스템에 기록하는 것이다. 이 간단한 습관은 논문의 추적 가능성 요구와 일치하며, 저자가 구상하는 보다 정교한 지식‑중심 파이프라인을 위한 기반을 마련한다.
저자
- José Palazzo Moreira de Oliveira
논문 정보
- arXiv ID: 2603.17659v1
- 분류: cs.SE
- 발행일: 2026년 3월 18일
- PDF: PDF 다운로드