消息传递神经网络图(MPNNs)往往遭受over-squashing现象,导致任务依赖远程交互的性能恶化。这可以很大程度上归因于消息传递只发生在当地,对节点的直接邻居。传统的静态图重新布线技术通常试图对抗这种效应通过允许遥远的节点进行即时沟通(变形金刚的极端的例子,通过访问所有节点在每一层)。然而,这增加了一个计算价格和为代价的打破感应偏压所提供的输入图结构。在这篇文章中,我们描述了两个小说机制来克服over-squashing而抵消的副作用静态重新布线方法:动态重组和延迟消息传递。这些技术可以被纳入任何MPNN并导致更好的性能比图变压器远程任务。