[Paper] Prompting Science Report 4: 가상 놀이: 전문가 페르소나는 사실 정확도를 향상시키지 않는다
이는 비즈니스, 교육 및 정책 리더들이 AI와 함께 작업하는 기술적 세부 사항을 이해하도록 돕는 일련의 짧은 보고서 중 네 번째이며, ri...
이는 비즈니스, 교육 및 정책 리더들이 AI와 함께 작업하는 기술적 세부 사항을 이해하도록 돕는 일련의 짧은 보고서 중 네 번째이며, ri...
나는 정보에 대한 경제 모델에서 전이성(transitivity)과 분할 구조(partition structure)의 표준 가정을 완화하여 모호한 지식(vague knowledge)을 형식화한다: 비전이성(non‑transitive) indistin…
이 연구는 미국 대법원 구두 변론 중 중단이 변호인들의 발언의 의미 내용과 감정적 톤을 어떻게 형성하는지를 조사한다, with a f...
Long video understanding (LVU)은 실제 세계의 질의에 답변하기 위해서는 대부분 …에 묻혀 있는 희소하고 시간적으로 분산된 단서에 의존해야 하기 때문에 어려운 과제입니다.
최근 통합된 멀티모달 대형 언어 모델(MLLMs)은 인상적인 능력을 보여주었으며, 향상된 텍스트-투-…
대규모 언어 모델(LLMs)에서의 장기 컨텍스트 추론은 체인‑오브‑쓰레드(Chain‑of‑Thought, CoT) 추론을 통해 인지 능력의 향상을 입증했습니다. 훈련…
최근 구조화된 텍스트 번역에 관한 연구는 문장 수준에 국한되어 있으며, 복잡한 문서 수준의 XML이나 HTML을 효과적으로 처리하는 데 어려움을 겪고 있다.
보건 의료가 확장 가능하고 신뢰할 수 있는 clinical decision support를 위해 AI를 점점 더 활용함에 따라, 모델 추론의 신뢰성을 보장하는 것이 여전히 중요한 과제로 남아 있습니다.
Modern Large Language Models는 긴 Chain of Thoughts를 통해 인상적인 추론 능력을 달성하지만, 추론 중에 상당한 computational cost가 발생합니다.
이 확장 초록은 Self-Explaining Contrastive Evidence Re-Ranking (CER)이라는 새로운 방법을 소개합니다. 이 방법은 사실 증거를 중심으로 검색을 재구성합니다 by f...
대형 언어 모델(Large Language Models, LLMs)이 수동적인 응답자에서 자율 에이전트로 진화함에 따라 학습 패러다임에 근본적인 전환이 필요합니다—정적…
대규모 언어 모델(LLMs)은 다양한 언어 관련 작업에서 놀라운 잠재력을 보여주지만, 그들이 더 깊은 언어적 특성을 포착하는지 여부는…