本研究针对蛋白质功能预测中远距离蛋白质潜在功能关系难以捕捉的问题,开发了基于PPI网络多跳邻域序列化和可解释人工智能(XAI)的图Transformer方法SEGT-GO。通过创新的序列化编码技术将多跳邻域信息转化为可计算特征,结合SHAP框架优化特征选择,在跨物种大 ...
本文针对图Transformer(Graph Transformers)的理论表达能力尚不明确的问题,系统探讨了其与分布式计算中Congested Clique模型的关联,证明在特定条件下,仅需2层深度的Graph Transformer即可实现图灵通用性,且其表达能力超越传统消息传递图神经网络(MPNNs)。实验在 ...
本⽂介绍⼀项近期的研究⼯作,试图建⽴能量约束扩散微分⽅程与神经⽹络架构的联系,从而原创性的提出了物理启发下的 Transformer,称作 DIFFormer。作为⼀种通⽤的可以灵活⾼效的学习样本间隐含依赖关系的编码器架构,DIFFormer 在各类任务上都展现了强大潜⼒。
华为诺亚实验室的研究员发现图神经网络(GNN)也能做视觉骨干网络。将图像表示为图结构,通过简洁高效的适配,提出一种新型视觉网络架构 ViG,表现优于传统的卷积网络和 Transformer。在 ImageNet 图像识别任务,ViG 在相似计算量情况下 Top-1 正确率达 82.1%,高于 ...
Transformer 架构的伟大之处,不仅在于提出了注意力机制,更在于提供了一套 “模块化” 的设计框架 —— 通过组合编码器(Encoder)和解码器(Decoder),可以衍生出多种结构变体。从 BERT 的 “纯编码器” 到 GPT 的 “纯解码器”,从 T5 的 “编码器 - 解码器” 到 ...
Transformer 自 2017 年出世以来就在 AI 领域高举高打,ChatGPT 引发全球大型语言模型热潮后更是在 NLP 领域被赋予了神话般的地位。 但近日,一篇正在审核中的 ICLR 2023 投稿论文(如下)经研究后提出一个观点:单一 Transformer 并不具备图灵完备性,其计算能力存在 ...
原始"Attention Is All You Need"论文中提出的标准Transformer架构最初设计用于处理离散输入和输出序列标记(token),但将其应用于时间序列分析时,需要对模型结构进行适当调整以适应连续数据特性。本文详细阐述了使原始Transformer架构能够高效处理连续值时间序列数据 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果