기술 과제: Transformer 기반 시간적 추론

발행: (2026년 1월 15일 오전 04:29 GMT+9)
4 min read
원문: Dev.to

Source: Dev.to

Technical Challenge: Transformer-based Temporal Reasoning with Memory-Augmented Graph Attention

Dataset

데이터셋은 그래프 구조 관측값들의 시퀀스로 구성되며, 그래프의 각 노드는 활성(active) 또는 비활성(inactive) 상태를 나타내는 이진 속성을 갖습니다. 목표는 과거 관측값들을 바탕으로 다음 시점의 그래프 상태를 예측하는 것입니다. 그래프 구조는 동적이며, 각 시간 단계마다 새로운 노드가 추가되거나 제거될 수 있습니다.

Constraints

  • Temporal Context Window: 모델은 10시간 단계 윈도우 내의 시간적 의존성을 포착해야 합니다.
  • Graph Size: 그래프의 최대 노드 수는 100개로 제한됩니다.
  • Memory‑Augmentation: 모델은 그래프 구조와 노드 속성에 관한 정보를 저장하고 검색할 수 있는 외부 메모리 컴포넌트를 포함해야 합니다.
  • Transformer‑based Architecture: 입력 시퀀스를 처리하기 위해 Transformer 인코더를, 다음 그래프 상태를 예측하기 위해 Transformer 디코더를 사용합니다.
  • Graph Attention Mechanism: 노드 속성과 그래프 구조를 고려하여 그래프 내 노드들의 어텐션 가중치를 계산합니다.

Evaluation Metrics

  • Accuracy: 다음 그래프 상태를 정확히 예측하는 능력.
  • F1‑score: 다음 그래프 상태에서 활성 노드를 식별하는 능력.
  • Memory Utilization: 외부 메모리 컴포넌트 사용 효율성.

Submission Guidelines

  • PyTorch, TensorFlow 등 선호하는 딥러닝 프레임워크를 사용해 Transformer‑based 모델을 구현하세요.
  • 그래프 어텐션 메커니즘과 외부 메모리 컴포넌트를 포함한 모델 아키텍처를 상세히 설명하십시오.
  • 제공된 데이터셋으로 모델을 평가하고, 지정된 평가 지표를 사용해 결과를 보고하십시오.
  • 코드와 결과를 공개 저장소 혹은 선택한 플랫폼에 공유하십시오.

Prizes

  • Best Accuracy: 평가 과제에서 가장 높은 정확도를 기록한 모델에게 $1,000 지급.
  • Best F1‑score: 평가 과제에서 가장 높은 F1‑score를 기록한 모델에게 $750 지급.
  • Best Memory Utilization: 경쟁력 있는 성능을 유지하면서 최고의 메모리 활용도를 달성한 모델에게 $500 지급.

Deadline

February 28, 2026

Transformer‑based 시간적 추론과 메모리‑증강 그래프 어텐션 역량을 보여줄 준비를 하세요!

Back to Blog

관련 글

더 보기 »

딥 그래프 대조적 표현 학습

개요 친구, 거리, 혹은 웹 페이지의 지도를 상상해 보세요. 각 점이 다른 점과 연결되어 있는—그것이 네트워크입니다. 과학자들은 간단한 아이디어를 제안했습니다: 두 가지 약간의…