[Paper] 基于多任务 BiLSTM 与 AutoML 基准测试的印尼电子商务评论情感与情绪分类
发布: (2026年4月28日 GMT+8 01:30)
7 分钟阅读
原文: arXiv
Source: arXiv - 2604.24720v1
Overview
该论文针对在印尼电子商务平台上构建情感感知功能的实际痛点:评论充斥着俚语、地区外来词、数字简写和表情符号,这会导致传统基于词典的情感工具失效。通过将经典的 TF‑IDF + AutoML 流水线与现代的多任务 BiLSTM 模型相结合,作者提供了一个稳健的解决方案,能够在一个精心策划的 5.4 k 条评论数据集上同时预测二元情感和五类情感标签。
关键贡献
- 双轨分类流水线 – 轻量级 TF‑IDF + AutoML 基线和共享编码器用于情感 + 情绪的深度学习多任务 BiLSTM。
- 全面的预处理套件 – 14 步顺序清洗,包括从市场语料库构建的自定义 140 条俚语词典。
- 广泛的基准测试 – 四种模型配置(BiLSTM 基线、BiLSTM 改进版、BiLSTM 大型、TextCNN)与 AutoML 轨道进行评估。
- 开源且可直接使用 – 完整代码、已训练模型以及托管在 Hugging Face Spaces 的交互式 Gradio 演示。
- 实用的训练技巧 – 类别加权交叉熵、ReduceLROnPlateau 调度器以及早停,以处理类别不平衡并防止过拟合。
方法论
- 数据 – PRDECT‑ID 数据集包含 5,400 条印尼产品评论,每条均标注了 (i) 二元情感(正面/负面)和 (ii) 五种情绪之一(快乐、悲伤、恐惧、爱、愤怒)。
- 预处理 – 评论经过 14 项清理操作:转为小写、去除 URL/HTML、表情符号转换、数字缩写展开,以及使用包含 140 条目的词典进行俚语规范化。
- 轨道 1(AutoML) – TF‑IDF 向量输入 PyCaret 的自动模型搜索,该搜索评估一系列经典分类器(逻辑回归、随机森林、XGBoost 等),并根据交叉验证得分选择最佳模型。
- 轨道 2(多任务 BiLSTM) – 使用 PyTorch BiLSTM 编码器处理分词后的文本。共享的隐藏表示被送入两个独立的全连接头部:一个用于情感(二元),一个用于情绪(5 类)。不同变体在隐藏层大小、层数和 dropout 上有所区别。
- 训练技巧 – 损失函数按类别频率的倒数加权,学习率在平台期下降,早停在验证损失不再提升时终止训练。
结果与发现
| Model | Sentiment Acc. | Emotion F1 (macro) |
|---|---|---|
| TF‑IDF + AutoML | 84.2 % | 62.7 % |
| BiLSTM Baseline | 83.5 % | 66.1 % |
| BiLSTM Improved | 84.0 % | 65.8 % |
| BiLSTM Large | 84.3 % | 66.0 % |
| TextCNN | 82.9 % | 64.5 % |
- AutoML 赛道凭借其强大的经典模型集成,在纯情感准确率上获胜。
- 多任务 BiLSTM 在情感分类上始终优于基线,表明共享编码器能够捕捉细微的情感线索。
- 对 BiLSTM 进行扩展(更多层/单元)仅带来边际提升,说明在该数据集上模型规模超过一定程度后收益递减。
实际意义
- 即插即用的情感/情绪 API – 开发者可以启动提供的 Gradio 演示或拉取 Hugging Face 模型,将实时情感和情绪检测加入推荐引擎、评论审核工具或面向印尼用户的聊天机器人。
- 成本效益基线 – TF‑IDF + AutoML 流水线在 CPU 上运行,延迟极低,适用于边缘设备或低预算服务。
- 提升客户洞察 – 情绪标签(例如 “恐惧” 与 “愤怒”)实现更细粒度的情感分析,帮助营销人员定制响应或优先处理支持工单。
- 可迁移的预处理 – 俚语词典和清洗步骤可复用于其他印尼语 NLP 任务(主题建模、意图检测),在非正式语言普遍的场景下发挥作用。
限制与未来工作
- 数据集规模 – 5.4 k 条评论规模适中;更大、更具多样性的语料库可能会暴露可扩展性问题并提升泛化能力。
- 语言覆盖 – 虽然俚语词典有用,但仅捕获了不断演变的市场用语的一小部分;需要持续更新。
- 情感粒度 – 仅考虑了五种情感类别;未来工作可以探索更丰富的情感分类体系或多标签情感检测。
- 跨语言扩展 – 将该流水线适配到其他低资源语言且具有相似非正式文本模式的情况,可检验其在印尼语之外的鲁棒性。
所有代码、模型以及交互式演示均已在作者的 GitHub 仓库和 Hugging Face Spaces 上公开,您可以立即开始实验。
作者
- Hermawan Manurung
- Ibrahim Al‑Kahfi
- Ahmad Rizqi
- Martin Clinton Tosima Manullang
论文信息
- arXiv ID: 2604.24720v1
- 类别: cs.CL
- 发布时间: 2026年4月27日
- PDF: 下载 PDF