[Paper] TeleDoCTR:面向电信的领域特定与上下文故障排除
发布: (2026年1月2日 GMT+8 21:55)
7 min read
原文: arXiv
Source: arXiv - 2601.00691v1
Overview
论文 TeleDoCTR 解决了许多大型电信运营商每天都会遇到的一个痛点:将大量的支持工单转化为快速、准确的解决方案。作者通过将领域特定排序与现代生成式 AI 相结合,构建了一个端到端系统,能够自动分配工单、调出最相关的历史案例,并草拟故障分析报告——全部无需人工在海量文档中筛选。
关键贡献
- 面向领域的架构:一个统一的流水线,将分类模型(工单路由)、检索引擎(相似工单搜索)和生成模型(故障分析报告)耦合在一起,专门在电信数据上进行训练。
- 上下文排序:引入领域特定的排序损失,提升检索到的历史工单的相关性,超越通用语义相似度。
- 生成式故障分析:利用微调后的语言模型生成结构化报告(问题描述、根本原因、建议修复),可直接供工程师使用。
- 真实场景评估:在专有电信基础设施数据集上进行实验,分类准确率、检索召回率和报告质量(BLEU/ROUGE)均相较强基线实现了持续提升。
- 运营效率提升:在试点环境部署时,展示了平均解决时间(MTTR)的可衡量下降。
方法论
- 数据准备 – 作者收集了约 12 万条工单,涵盖网络中断、硬件故障和服务降级,并附有专家撰写的解决说明。
- 工单路由(分类) – 使用基于 Transformer 的分类器(例如 BERT‑large)进行微调,以预测负责的专家团队(约 30 类)。
- 上下文检索 – 他们使用密集嵌入(SBERT)对历史工单建立索引,并加入 领域特定相关性评分器,该评分器结合了电信本体术语(如 “BGP flap”、 “OLT failure”)。最终得分是语义相似度和本体重叠的加权融合。
- 报告生成 – 将序列到序列模型(T5‑base)进一步微调,使用工单文本 + 专家解决说明的配对进行训练。模型被提示输出三个部分:问题概述、根本原因和推荐措施。
- 端到端集成 – 流程实时运行:新工单首先进行分类,然后检索 top‑k 相似工单,最后生成模块产出草稿报告,必要时可由人工编辑。
所有组件均使用标准指标(准确率、MAP@10、BLEU、ROUGE)以及自定义的 “解决时间” 指标进行训练和评估,以捕捉运营影响。
结果与发现
| 任务 | 基线 | TeleDoCTR | 相对增益 |
|---|---|---|---|
| 工单路由(准确率) | 84.2 % (BERT) | 90.7 % | +6.5 % |
| 检索 (MAP@10) | 0.42 (BM25 + SBERT) | 0.58 | +38 % |
| 报告生成 (BLEU) | 21.4 | 28.9 | +35 % |
| 平均修复时间 (MTTR)(试点) | 4.8 h | 3.2 h | –33 % |
消融实验表明,去除领域特定的排序项会使 MAP@10 下降约 12 %,将生成模型换成通用 GPT‑2 会使 BLEU 下降约 9 %。人工评估者将 TeleDoCTR 的草稿报告评为“可交付”的比例为 78 %,而基线为 45 %。
实际意义
- 更快的工单分流 – 自动路由减少了分配工单的人工工作量,使高级工程师能够专注于复杂案例。
- 知识复用 – 通过展示最相关的历史事件,系统减少了重复工作,并帮助新员工从历史修复中学习。
- 草稿报告作为起点 – 工程师可以编辑简洁的 AI 生成分析,而不是从头撰写,从而加快解决流程。
- 可扩展到其他领域 – 模块化设计(分类 + 检索 + 生成)可以在任何拥有丰富工单历史的行业重新训练(例如云服务、ITIL 支持)。
- 成本降低 – 初步 ROI 计算表明,中型电信运营商在采用 3 个月后,支持人工成本可降低 15–20 %。
限制与未来工作
- 数据隐私与偏差 – 该模型在专有工单上进行训练;将其扩展到多租户环境需要强大的匿名化和偏差缓解策略。
- 领域漂移 – 快速演进的电信标准(5G、边缘计算)可能超出用于排序的静态本体的适应速度,需要持续更新。
- 人机交互验证 – 虽然生成的报告质量很高,但系统仍然依赖专家审查来处理安全关键事件。
- 作者提出的未来方向 包括:
- 将实时网络遥测作为额外上下文纳入。
- 探索强化学习以优化端到端的平均修复时间(MTTR)目标。
- 将流水线扩展到全球运营商常见的多语言工单流。
作者
- Mohamed Trabelsi
- Huseyin Uzunalioglu
论文信息
- arXiv ID: 2601.00691v1
- 分类: cs.LG, cs.CL, cs.IR
- 出版日期: 2026年1月2日
- PDF: 下载 PDF