技术挑战:基于Transformer的时序推理

发布: (2026年1月15日 GMT+8 03:29)
3 min read
原文: Dev.to

Source: Dev.to

Technical Challenge: Transformer-based Temporal Reasoning with Memory-Augmented Graph Attention

Dataset

数据集由一系列图结构的观测组成,图中的每个节点都有一个二元属性,指示其是激活状态还是非激活状态。目标是预测图的下一个状态,已知过去的观测序列。图结构是动态的,这意味着每个时间步可能会添加或删除节点。

Constraints

  • Temporal Context Window: 模型必须在 10 个时间步的窗口内捕获时间依赖关系。
  • Graph Size: 图中节点的最大数量限制为 100。
  • Memory‑Augmentation: 模型必须加入一个外部记忆组件,用于存储和检索关于图结构及节点属性的信息。
  • Transformer‑based Architecture: 使用 Transformer 编码器处理输入序列,使用 Transformer 解码器预测下一个图状态。
  • Graph Attention Mechanism: 为图中的节点计算注意力权重,需考虑节点属性和图结构。

Evaluation Metrics

  • Accuracy: 预测正确的下一个图状态的能力。
  • F1‑score: 在下一个图状态中识别激活节点的能力。
  • Memory Utilization: 外部记忆组件的使用效率。

Submission Guidelines

  • 使用您选择的深度学习框架(如 PyTorch、TensorFlow)实现基于 Transformer 的模型。
  • 提供模型架构的详细描述,包括图注意力机制和外部记忆组件。
  • 在提供的数据集上评估模型,并使用上述评估指标报告结果。
  • 将代码和结果分享至公共仓库或您选择的平台。

Prizes

  • Best Accuracy: 对评估任务拥有最高准确率的模型奖励 $1,000。
  • Best F1‑score: 对评估任务拥有最高 F1‑score 的模型奖励 $750。
  • Best Memory Utilization: 在保持竞争性能的前提下,实现最佳记忆利用率的模型奖励 $500。

Deadline

2026 年 2 月 28 日

准备好展示您在基于 Transformer 的时间推理以及记忆增强图注意力方面的专业能力吧!

Back to Blog

相关文章

阅读更多 »

深度图对比表征学习

概述:想象一张朋友、街道或网页的地图,每个点都链接到其他点——这就是网络。科学家提出了一个简单的想法:创建两个略微……