[Paper] Bangla 혐오 발언 분류 with Fine-tuned Transformer Models
발행: (2025년 12월 2일 오후 11:56 GMT+9)
7 min read
원문: arXiv
Source: arXiv - 2512.02845v1
Overview
이 논문은 2억 3천만 명 이상이 사용하는 방글라어에 대한 혐오 발언 탐지를 다루며, 아직 NLP 도구가 충분히 제공되지 않은 상황을 조명합니다. 여러 트랜스포머 모델을 BLP 2025 공유 과제 데이터에 파인튜닝함으로써, 언어‑특화 사전학습(BanglaBERT)이 일반적인 다국어 모델보다 훨씬 뛰어난 성능을 보이며 저자원 환경에서 안전한 온라인 커뮤니티 구축을 위한 실용적인 길을 제시합니다.
Key Contributions
- Comprehensive baseline suite – 고전적인 베이스라인(다수결, 무작위, SVM)과 로지스틱 회귀, 랜덤 포레스트, 의사결정 트리를 재구현하여 견고한 기준점을 마련했습니다.
- Transformer benchmarking – 네 가지 트랜스포머 계열(DistilBERT, BanglaBERT, m‑BERT, XLM‑RoBERTa)을 두 가지 혐오 발언 하위 과제(이진 탐지와 세분화 분류)에서 평가했습니다.
- Empirical proof of language‑specific pre‑training – BanglaBERT가 파라미터가 적음에도 불구하고 방글라어 혐오 발언 과제에서 대형 다국어 모델들을 지속적으로 앞선다는 것을 입증했습니다.
- Open‑source reproducibility – 코드와 모델 체크포인트를 공개하여 다른 연구자와 엔지니어가 작업을 재현하고 확장할 수 있도록 했습니다.
Methodology
- Data – 방글라어 소셜 미디어 게시물을 혐오 발언 여부로 라벨링한 BLP 2025 공유 과제 데이터셋을 사용했습니다(서브태스크 1A: 이진, 서브태스크 1B: 다중 클래스).
- Baseline models – 원시 텍스트에서 추출한 TF‑IDF 특징을 이용해 전통적인 분류기들을 학습했습니다.
- Transformer fine‑tuning – 사전 학습된 체크포인트(DistilBERT, m‑BERT, XLM‑RoBERTa, BanglaBERT)를 로드하고 단일 선형 분류 헤드를 추가했습니다.
- Training regime – 표준 방법론을 적용했습니다: AdamW 옵티마이저, 학습률 워밍업, 검증 손실에 대한 조기 종료, 라벨 불균형 완화를 위한 클래스 가중치 균형.
- Evaluation – 두 서브태스크 모두에 대해 매크로 평균 F1 점수(공식 공유 과제 메트릭)를 보고했으며, 각 모델을 베이스라인과 비교했습니다.
Results & Findings
| Model | Subtask 1A (Binary) F1 | Subtask 1B (Multi‑class) F1 |
|---|---|---|
| Majority / Random | ~0.45 / ~0.30 | ~0.30 / ~0.20 |
| SVM / Logistic Regression | 0.62 / 0.58 | 0.55 / 0.51 |
| DistilBERT | 0.68 | 0.60 |
| BanglaBERT | 0.78 | 0.71 |
| m‑BERT | 0.74 | 0.66 |
| XLM‑RoBERTa | 0.75 | 0.68 |
- 모든 트랜스포머 모델이 고전 베이스라인을 능가했으며, 방글라어에 대한 컨텍스트 임베딩의 강력함을 확인했습니다.
- BanglaBERT는 파라미터가 적음에도 두 과제 모두에서 가장 높은 매크로‑F1 점수를 기록했습니다.
- DistilBERT는 용량이 작고 방글라어 전용 사전 학습 데이터가 부족해 성능이 다소 뒤처졌습니다.
Practical Implications
- Moderation pipelines – 소셜 미디어 플랫폼은 BanglaBERT를 즉시 적용 가능한 컴포넌트로 통합해 실시간으로 혐오 콘텐츠를 표시할 수 있어, 수동 검토 의존도를 낮출 수 있습니다.
- Resource‑efficient deployment – BanglaBERT는 크기가 작아 GPU/CPU 요구사항이 낮아, 엣지 디바이스나 저예산 클라우드 환경에서도 배포가 용이합니다.
- Transferable workflow – 동일한 파인튜닝 레시피를 다른 저자원 언어에 적용할 수 있어, 언어‑특화 모델의 폭넓은 채택을 촉진합니다.
- Open‑source tooling – 저자들의 코드를 공개함으로써 개발자는 방글라어 사용자들을 위한 맞춤형 모더레이션 봇, 감성 분석기, 커뮤니티 건강 대시보드 등을 빠르게 프로토타이핑할 수 있습니다.
Limitations & Future Work
- Dataset scope – 공유 과제 코퍼스는 규모와 도메인이 제한적이며(주로 공개 게시물), 다양한 플랫폼에서 나타나는 방글라어 혐오 발언 전체를 포괄하지 않을 수 있습니다.
- Class imbalance – 일부 혐오 발언 카테고리가 충분히 대표되지 않아 매크로‑F1 점수가 부풀릴 가능성이 있으며, 보다 균형 잡힌 데이터가 필요합니다.
- Model robustness – 본 연구는 적대적 공격이나 코드 스위칭(방글라어‑영어 혼용) 상황을 다루지 않았으며, 이는 실제 게시물에서 흔히 나타납니다.
- Future directions – 데이터셋 확대, 다국어 코드 스위칭 처리 도입, 그리고 온‑디바이스 추론을 위한 BanglaBERT 경량화(distillation) 실험 등이 향후 유망한 과제입니다.
Authors
- Yalda Keivan Jafari
- Krishno Dey
Paper Information
- arXiv ID: 2512.02845v1
- Categories: cs.CL
- Published: December 2, 2025
- PDF: Download PDF