[Paper] ContextFocus: 대규모 언어 모델의 맥락적 충실도를 위한 활성화 스티어링

발행: (2026년 1월 8일 오전 02:45 GMT+9)
9 min read
원문: arXiv

Source: arXiv - 2601.04131v1

Overview

대형 언어 모델(LLM)은 사전 훈련 중에 학습한 사실을 기억하는 데 뛰어나지만, 최신 외부 증거가 내부 지식과 상충할 때 해당 증거를 사용해 답변하도록 요구받으면 이 강점이 오히려 단점이 될 수 있습니다. 논문 ContextFocus: Activation Steering for Contextual Faithfulness in Large Language Models에서는 모델의 은닉 활성화를 검색된 컨텍스트 쪽으로 살짝 이동시키는 경량의 추론 전용 기법을 제안합니다. 이 방법은 비용이 많이 드는 파인튜닝 없이도 “환각”(hallucination)을 크게 감소시킵니다.

주요 기여

  • 활성화‑스티어링 메커니즘 (ContextFocus) 은 제공된 컨텍스트와 일치하는 뉴런을 선택적으로 증폭하고, 상충되는 내부 지식을 억제합니다.
  • 제로‑파인튜닝 솔루션: 이 방법은 추론 시 플러그인 형태로 동작하며, 몇 번의 추가 전방 패스만 필요하고 모델 가중치를 변경할 필요가 없습니다.
  • 포괄적인 벤치마크 평가를 ConFiQA에서 수행했으며, ContextDPO, COIECD, 프롬프트‑전용 접근법과 같은 강력한 베이스라인 대비 일관된 향상을 보여줍니다.
  • 조합 가능성 입증: ContextFocus는 프롬프트 엔지니어링 기법(예: 체인‑오브‑생각, 검색‑보강 프롬프트)과 결합하여 추가적인 개선을 얻을 수 있습니다.
  • 확장성 증거: 7 B에서 70 B 파라미터까지의 모델에 대한 실험을 통해 모델 크기가 커져도 이 접근법이 효과적임을 확인했습니다.

방법론

  1. 컨텍스트 검색 – 외부 지식 소스(예: 검색 엔진 또는 벡터 DB)가 사용자 질의와 관련된 짧은 구절을 반환합니다.
  2. 활성화 마스크 생성 – 검색된 구절을 토큰화하고 동결된 LLM에 한 번 통과시켜 은닉 상태 활성화를 수집합니다. 작은 보류 집합에 대해 훈련된 경량 분류기가 어떤 뉴런이 “컨텍스트와 관련”인지 예측합니다.
  3. 추론 시 스티어링 – 실제 질의가 처리될 때, 모델의 은닉 상태에 이전에 계산된 마스크를 요소별로 곱해 컨텍스트에 맞는 뉴런을 강화하고, 그렇지 않으면 오래된 기억된 사실이 표면에 떠오를 수 있는 뉴런을 억제합니다.
  4. 디코딩 – 표준 디코딩(예: 핵심 샘플링)이 스티어링된 활성화 위에서 진행되어 최종 답변을 생성합니다.

모든 단계는 실시간으로 수행되며; 유일하게 학습된 구성 요소는 작은 마스크‑예측기로, 한 번 훈련하면 다양한 작업에 재사용할 수 있습니다.

Source:

결과 및 발견

ModelBaseline (no steering)ContextFocusΔ Faithfulness ↑Δ Fluency ↓
LLaMA‑7B62.3 %78.9 %+16.6 pp–0.3 pp
LLaMA‑13B66.1 %81.4 %+15.3 pp–0.2 pp
LLaMA‑70B71.8 %86.2 %+14.4 pp–0.1 pp
  • Contextual faithfulness(검색된 구절을 올바르게 인용한 답변 비율)이 모델 크기에 따라 14–17 퍼센트 포인트 향상되었습니다.
  • Fluency(퍼플렉시티와 인간 평점으로 측정)는 거의 변하지 않아 스티어링이 언어 품질을 저하시키지 않음을 확인했습니다.
  • 체인‑오브‑쓰루(chain‑of‑thought) 프롬프트와 결합하면 ContextFocus가 추가로 약 3 pp 상승을 보여, 상호 보완적인 효과가 있음을 나타냅니다.
  • 추론 오버헤드는 약 5 %의 추가 연산과 단일 A100 GPU에서 <10 ms의 지연만 발생하며, 전체 파인‑튜닝(수시간의 학습 시간 추가)보다 훨씬 저렴합니다.

Practical Implications

  • Retrieval‑augmented applications (e.g., chat assistants, code‑search bots, fact‑checking tools) can integrate ContextFocus as a drop‑in module to make answers more trustworthy without re‑training the underlying LLM.
    → 검색 기반 애플리케이션(예: 채팅 어시스턴트, 코드 검색 봇, 사실 확인 도구)은 기본 LLM을 재학습하지 않고도 ContextFocus를 즉시 삽입 가능한 모듈로 통합하여 답변의 신뢰성을 높일 수 있습니다.

  • Rapid product iteration: Teams can experiment with new knowledge bases (news feeds, internal docs) and instantly see reduced hallucinations, accelerating time‑to‑market.
    → 빠른 제품 반복: 팀은 새로운 지식 베이스(뉴스 피드, 내부 문서)를 실험하고 즉시 환각 현상이 감소된 것을 확인함으로써 시장 출시 시간을 단축할 수 있습니다.

  • Cost‑effective compliance: Industries with strict factual accuracy requirements (finance, healthcare, legal) can meet regulatory standards while keeping inference budgets low.
    → 비용 효율적인 컴플라이언스: 사실 정확성 요구가 엄격한 산업(금융, 의료, 법률)은 추론 비용을 낮게 유지하면서 규제 기준을 충족할 수 있습니다.

  • Edge deployment: Because the method only adds a lightweight mask and a single extra forward pass, it fits on inference‑optimized hardware (e.g., NVIDIA Jetson, AWS Inferentia) where full model fine‑tuning is infeasible.
    → 엣지 배포: 이 방법은 가벼운 마스크와 한 번의 추가 순전파만 추가하므로 전체 모델 파인튜닝이 어려운 추론 최적화 하드웨어(예: NVIDIA Jetson, AWS Inferentia)에서도 적용 가능합니다.

제한 사항 및 향후 작업

  • mask‑predictor는 제한된 검증 세트에서 학습되었으며, 생물의학 용어와 같은 고도로 도메인‑특정 어휘에 대한 일반화는 추가 미세‑조정이 필요할 수 있습니다.
  • ContextFocus는 검색된 구절 자체가 정확하다고 가정합니다; 외부 소스가 노이즈가 많을 경우, 스티어링이 잘못된 정보를 증폭시킬 수 있습니다.
  • 현재 구현은 비교적 짧은 컨텍스트(≤ 256 토큰)에서 가장 잘 작동합니다; 더 긴 문서로 확장하려면 계층적 마스킹 전략이 필요할 수 있습니다.
  • 향후 연구 방향에는 질의 난이도에 따라 동적 마스크를 학습하는 방법, 멀티모달 LLM에 접근 방식을 확장하는 방법, 그리고 마스크 예측기를 검색 모델과 공동으로 학습시켜 엔드‑투‑엔드 최적화를 구현하는 것이 포함됩니다.

저자

  • Nikhil Anand
  • Shwetha Somasundaram
  • Anirudh Phukan
  • Apoorv Saxena
  • Koyel Mukherjee

논문 정보

  • arXiv ID: 2601.04131v1
  • 분류: cs.CL, cs.AI, cs.LG
  • 출판일: 2026년 1월 7일
  • PDF: Download PDF
Back to Blog

관련 글

더 보기 »