论文略读:Less is More: on the Over-Globalizing Problem in Graph Transformers

2024 ICML

  • 主要观点:Graph Transformer 中的过全局化问题 (Over-Globalizing Problem)
    • 当前 Graph Transformer 的注意力机制过度关注那些远端节点,而实际上包含了大部分有用信息的近端节点则被相对忽视了
  • ——>提出了一种新的采用协同训练的两级全局 Graph Transformer 方法 (CoBFormer)

猜你喜欢

转载自blog.csdn.net/qq_40206371/article/details/143268947