LLM이 인간 표현을 표준화하고 – 우리 생각에 미묘하게 영향을 미칠 수도 있다
Source: Hacker News

작성자: Julia Grimmett
2026년 3월 11일
Source: https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(26)00003-3
소개
인공지능 챗봇은 사람들의 말하기, 글쓰기, 사고 방식을 표준화하고 있습니다. 이러한 균질화가 통제되지 않고 계속된다면, 인류의 집단적 지혜와 적응 능력을 감소시킬 위험이 있다고 USC 컴퓨터 과학자와 심리학자들은 의견 논문에서 주장합니다. 이 논문은 3월 11일 Cell Press 저널 Trends in Cognitive Sciences에 발표되었습니다.
연구진 — USC Dornsife College of Letters, Arts and Sciences의 심리학 및 컴퓨터 과학 교수인 Morteza Dehghani가 이끌었습니다 — 는 AI 개발자들이 대형 언어 모델(LLM) 훈련 데이터에 더 많은 현실 세계의 다양성을 포함시켜야 한다고 말합니다. 이는 인간 인지 다양성을 보존하기 위해서일 뿐만 아니라, 챗봇의 추론 능력을 향상시키기 위해서도 필요합니다.
“개인마다 글쓰기, 추론, 세계관이 다릅니다,” 라고 연구의 첫 번째 저자인 USC Viterbi School of Engineering의 박사과정 학생인 Zhivar Sourati는 말합니다. “이러한 차이가 동일한 LLM에 의해 매개될 때, 그들의 독특한 언어 스타일, 관점, 그리고 추론 전략이 균질화되어 사용자 전반에 걸쳐 표준화된 표현과 사고가 생성됩니다.”
대형 언어 모델이 개성을 억제한다
그룹과 사회 내에서 인지적 다양성은 창의성과 문제 해결을 강화한다. 그러나 전 세계적으로 인지적 다양성은 감소하고 있다. 수십억 명이 점점 더 많은 작업에 동일한 소수의 AI 챗봇을 사용하기 때문이다. 사람들이 챗봇을 이용해 글을 다듬으면, 그 결과는 종종 스타일적 개성을 잃게 되고, 창작자는 자신의 작업에 대한 소유감을 덜 느끼게 된다.
“우려되는 점은 LLM이 사람들의 글쓰기나 말하기 방식을 형성하는 것뿐만 아니라, 신뢰할 수 있는 발언, 올바른 관점, 혹은 좋은 추론이 무엇인지 미묘하게 재정의한다는 것이다,” 라고 Dehghani의 Morality and Language Lab 소속인 Sourati가 말한다.
팀은 LLM 출력이 인간이 만든 글보다 다양성이 적고, 서구의 교육받은 산업화된 부유하고 민주적인 사회의 언어, 가치관, 추론 스타일을 반영하는 경향이 있다는 여러 연구를 제시한다.
“LLM은 훈련 데이터의 통계적 규칙성을 포착하고 재현하도록 학습되는데, 이 데이터는 종종 지배적인 언어와 이데올로기를 과도하게 대표한다. 따라서 그 출력은 인간 경험의 좁고 편향된 일부를 반영하는 경우가 많다,” 라고 Sourati가 말한다.
개인이 LLM을 사용할 때 더 많은 아이디어와 상세한 내용을 생성할 수 있지만, 그룹이 LLM에 의존하면 집단의 힘을 결합하는 대신 아이디어가 적고 창의성이 떨어진다.
“사람들이 LLM을 직접 사용하지 않더라도, LLM은 여전히 간접적으로 영향을 미친다,” 라고 Sourati가 말한다. “내 주변 많은 사람들이 특정 방식으로 생각하고 말한다면, 내가 다르게 행동할 경우 더 신뢰할 수 있거나 사회적으로 받아들여질 것처럼 보여 압력을 느껴 그들과 맞추고 싶어질 것이다.”
LLM은 추론 스타일의 다양성을 감소시킬 수 있다
언어를 넘어, 편향된 LLM과 상호작용한 후 사람들의 의견이 사용한 LLM의 의견과 더 비슷해진다는 연구 결과가 있습니다. LLM은 또한 단계별 정당화를 요구하는 “연쇄 사고(chain‑of‑thought)”와 같은 선형적인 추론 방식을 선호합니다. 이러한 강조는 때때로 더 효율적인 직관적이거나 추상적인 추론 스타일의 사용을 감소시킬 수 있습니다.
연구자들은 LLM이 사람들의 기대를 바꾸어 작업 방향을 미묘하게 이동시킬 수 있다고 지적합니다.
“사용자가 생성 과정을 적극적으로 조정하기보다는 모델이 제안하는 이어지는 내용을 따르는 경우가 많으며, 스스로 만들기보다 ‘충분히 좋은’ 옵션을 선택하게 됩니다. 이는 점차 사용자의 주도권을 모델로 옮겨갑니다,” 라고 Sourati는 말합니다.
연구자들은 AI 개발자들이 모델에 언어, 관점, 그리고 추론의 다양성을 의도적으로 포함시킬 것을 권고합니다. 이러한 다양성은 무작위 변이로 도입하기보다 기존 전 세계 인간 다양성을 기반으로 해야 합니다.
“LLM이 아이디어와 문제에 접근하는 방식이 더 다양했다면, 우리 사회의 집단 지능과 문제 해결 능력을 더 잘 지원했을 것입니다,” 라고 Sourati는 말했습니다. “우리는 AI 모델 자체를 다양화하고, 특히 다양한 작업과 상황에서 광범위하게 사용되는 만큼, 미래 세대의 인지적 다양성과 아이디어 창출 잠재력을 보호하기 위해 모델과 상호작용하는 방식을 조정해야 합니다.”
연구 개요
USC Viterbi 박사과정 학생 Alireza Ziabari도 연구에 기여했으며, 이 연구는 공군 과학연구소(Air Force Office of Scientific Research)의 자금 지원을 받았습니다.