대화 데이터셋의 문제

발행: (2026년 3월 8일 AM 09:25 GMT+9)
8 분 소요
원문: Dev.to

Source: Dev.to

대화 데이터셋의 문제점

대부분의 대화 데이터셋은 언어 모델을 학습하고 평가하기 위해 텍스트만 포함합니다: 화자 라벨, 메시지, 그리고 때때로 감정 태그. 이 형식은 많은 작업에 유용하지만, 사람에 대해 추론해야 하는 시스템을 구축할 때는 한계가 있습니다.

실제 대화는 전사본에 나타나지 않는 내부 상태에 의해 움직입니다:

  • 신념 – 상대에 대한 믿음이 각 교환마다 변화함
  • 목표 – 각 메시지 뒤에 숨은 목적(예: 인정받기, 통제권 확보, 신뢰 회복)
  • 관계 역학 – 대화 전반에 걸쳐 변하는 관계 상태(신뢰, 긴장, 연결)
  • 심리적 정체성 – 압박 상황에서 사람의 의사소통 방식을 형성함

화자가 다음과 같이 말할 때:

“I’m not upset about the meeting, I’m upset you didn’t tell me earlier.”

텍스트는 보이지만, 그 뒤에 숨은 동인은 드러나지 않습니다:

  • 상대가 정보를 숨기고 있다는 신념 (신뢰도: 0.74)
  • 목표는 갈등을 확대하기보다 인정을 얻는 것
  • 지난 네 차례 교환 동안 신뢰가 점점 약화된 관계 상태

이러한 정보가 없으면 데이터셋은 무엇이 일어났는지는 알려줄 수 있지만 일어났는지는 알 수 없습니다.

텍스트‑전용 데이터로 대화 모델을 학습하면 표면적인 패턴을 모방하게 됩니다—응답이 어떻게 보이는지는 배우지만, 그 응답을 하는지는 배우지 못합니다. 이는 간단한 작업에는 충분하지만, 다음과 같은 작업에는 한계를 만듭니다:

  • 다중 턴 대화에서 신념을 추적하기
  • 갈등 상황에서 신뢰 변화를 이해하기
  • 동일한 상황에 대해 다양한 성격이 어떻게 반응하는지 시뮬레이션하기
  • 에이전트의 내부 추론이 출력과 일치하는지 평가하기

이러한 작업을 위해서는 데이터셋에 내부 구조가 명시적으로 포함되어야 하며, 사후에 추론해서는 안 됩니다.

Source:

StrataSynth: 구조화된 접근법

우리는 StrataSynth라는 프로젝트를 통해 다른 접근 방식을 탐구하고 있습니다. LLM에게 직접 대화를 생성하도록 프롬프트를 주는 대신, 시스템이 먼저 최소한의 인지 모델을 시뮬레이션합니다. 언어 모델은 최종 단계에서 결정들을 자연어로 렌더링하는 데만 사용됩니다.

파이프라인 개요

PsycheGraph        → identity, attachment style, biases, voice
Belief Engine      → evolving beliefs with confidence scores
Relationship State → trust, tension, connection, dominance
Decision Engine    → intent, goal, communication act
LLM Rendering      → natural language

핵심 제약: LLM은 무엇을 믿을지 혹은 다른 에이전트와 어떻게 관계를 맺을지를 결정할 수 없습니다; 이러한 결정은 상위 단계의 상태 모델에 의해 이루어집니다. LLM은 단지 그 결정을 텍스트로 렌더링할 뿐입니다. 이 분리를 통해 내부 상태가 항상 명시적으로 유지됩니다—즉, 출력이 생성된 입력이 명확히 드러납니다.

예시 턴 (JSON)

{
  "speaker": "A",
  "text": "I'm not upset about the meeting. I'm upset you didn't tell me.",
  "intent": "reveal",
  "goal": "seek_validation",
  "communication_act": "accusation",
  "belief_delta": {
    "trust_other": -0.07
  },
  "relationship_state": {
    "trust": 0.62,
    "tension": 0.44,
    "connection": 0.38
  }
}

전체 대화에 걸쳐 다음과 같은 궤적이 생성됩니다:

  • 신념 궤적 – 각 신념이 턴마다 어떻게 변하는지
  • 관계 궤적 – 신뢰와 긴장이 전체 흐름에 따라 어떻게 진화하는지
  • 행동 엔트로피 – 화자의 커뮤니케이션 행위가 얼마나 다양하게 나타나는지

LLM 자체 채점 없이 평가

우리는 생성된 합성 데이터를 동일한 LLM으로 평가하는 것을 피하고자 했습니다. LLM 자체 평가에서는 문제가 숨겨질 수 있습니다; 구조적으로 일관성 없는 데이터를 생성하는 모델이라도 높은 품질로 평가될 수 있습니다.

StrataSynth의 모든 품질 지표는 결정론적으로 계산됩니다:

  • belief_consistency – 커뮤니케이션 행위와 신념 변화량 사이의 상관관계 (NumPy)
  • identity_stability – 턴 간 커뮤니케이션 분포의 코사인 유사도 (sentence‑transformers)
  • behavioral_entropy – 커뮤니케이션 행위 분포에 대한 샤논 엔트로피
  • noise_rejection_rate – 주입된 노이즈 중 올바르게 격리된 비율

LLM 점수 없음. 순환 평가 없음.

Published Datasets

우리는 Hugging Face에 초기 프로토타입 데이터셋 3개를 공개했습니다 (각각 15개의 대화 포함):

  1. stratasynth-social‑reasoning – 가족 갈등, 연인 신뢰 회복, 돌봄자 스트레스
  2. stratasynth-agent‑stress‑test – 질투 고조, 성과 평가, 소원
  3. stratasynth‑belief‑dynamics – 경력 전환, 멘토십 갈등, 관계 해소

우리가 공유하고자 한 기여는 양이 아니라 구조였습니다.

Potential Applications

Structured social datasets could be useful for:

  • Evaluating whether an agent tracks belief changes correctly
  • Training models that need to reason about trust and conflict
  • Stress‑testing conversational systems with psychologically defined personas
  • Alignment research that requires explicit internal state as ground truth

미해결 질문

인지 모델은 의도적으로 최소화되었습니다:

  • 12가지 신념
  • 4가지 관계 차원
  • 10가지 커뮤니케이션 행위

이 추상이 충분한 신호를 제공하는지, 아니면 거친 근사치에 불과한지 확신이 서지 않습니다. 구조화된 대화 데이터셋, 에이전트 평가, 혹은 사회적 추론 벤치마크 작업을 해보신 분이라면, 이 접근 방식이 어디에서 잘못되었는지 혹은 어떻게 개선될 수 있는지에 대한 의견을 듣고 싶습니다.

0 조회
Back to Blog

관련 글

더 보기 »