[Paper] 작은 인간 샘플에 LLM을 Finetuning 하면 Heterogeneity, Alignment, 그리고 Belief-Action Coherence를 증가시킬 수 있을까?
대규모 언어 모델(LLMs)이 설문 조사와 실험 연구에서 인간 참여자를 대체할 수 있는지에 대한 논쟁이 계속되고 있다. While re...
대규모 언어 모델(LLMs)이 설문 조사와 실험 연구에서 인간 참여자를 대체할 수 있는지에 대한 논쟁이 계속되고 있다. While re...
Reasoning models have demonstrated remarkable capabilities in complex reasoning tasks. However, ensuring their safety against adversarial jailbreak prompts rema...
기존의 프롬프트 학습 방법은 CLIP 모델을 기반으로 하며, 텍스트 토큰을 앵커로 활용하여 학습 가능한 소프트 토큰을 안내합니다. 이러한 안내는 …
스파이킹 신경망(SNN)은 임베디드 및 엣지 AI 분야에서 주요 후보로 부상했습니다. 이들의 고유한 저전력 소비 특성 덕분에 훨씬 더 효율적입니다.
대형 언어 모델(LLMs)은 인간을 대신해 평가자로 점점 더 많이 사용되고 있습니다. 확장 가능하지만, 그들의 판단은 불완전한 specificity와 s...
대형 언어 모델(LLM)은 일반 분야 전반에 걸쳐 뛰어난 역량을 보여주지만, 모기지 금융과 같은 전문 분야에 적용하는 데는 …
이 논문은 저자원 버마어에서 자동 음성 인식(ASR) 오류 교정을 위해 sequence-to-sequence Transformer 모델을 조사하며, ...
Large language models must satisfy hard orthographic constraints during controlled text generation, yet systematic cross-architecture evaluation remains limited...
버마어와 같은 저자원 언어에서는 classification 작업에서 종종 final classification layer만 fine-tune하고, pre-trained encoder 가중치는 frozen 상태로 유지합니다. Wh...
풍자를 감지하는 것은 최근 neural network approaches의 발전에도 불구하고 자연어 처리(NLP) 분야에서 여전히 어려운 과제입니다. 현재, ...
Zipf's law in language lacks a definitive origin, debated across fields. This study explains Zipf-like behavior using geometric mechanisms without linguistic el...
오프라인 데이터 선택 및 온라인 자체 정제 생성은 데이터 품질을 향상시키며, 대형 언어 모델(LLMs)을 특정 분야에 적용하는 데 중요한 단계입니다.