forked from manbo/internal-docs
新增提取所有md文件的脚本
所有md文件都会被提取到/papers/md文件夹下
This commit is contained in:
@@ -0,0 +1,64 @@
|
||||
# Semi-Supervised Classification with Graph Convolutional Networks
|
||||
|
||||
|
||||
|
||||
**第一个问题**:请对论文的内容进行摘要总结,包含研究背景与问题、研究目的、方法、主要结果和结论,字数要求在150-300字之间,使用论文中的术语和概念。
|
||||
|
||||
摘要总结:本文提出一种可扩展的半监督图节点分类方法——Graph Convolutional Networks(GCN),基于对谱域图卷积的局部一阶近似构建高效的层间传播规则。研究背景是图结构数据的半监督学习常依赖图拉普拉斯正则化或多步嵌入管线,存在建模能力和效率不足。研究目的在于直接在图上进行端到端的特征传播与学习,通过f(X,A)编码邻接结构与节点特征。方法核心为对A加自环并归一化的“renormalization trick”,使用 ˜D^(-1/2) ˜A ˜D^(-1/2) 的线性传播与ReLU/softmax组成两层GCN,复杂度线性随边数扩展。主要结果显示在Citeseer、Cora、Pubmed与NELL上,GCN在准确率与训练时间上显著优于Planetoid等基线,并验证不同传播模型下该近似的优势。结论:GCN无需显式拉普拉斯正则化即可高效学习,能同时编码局部图结构与节点特征,实现大规模半监督节点分类的SOTA性能。
|
||||
|
||||
**第二个问题**:请提取论文的摘要原文,摘要一般在Abstract之后,Introduction之前。
|
||||
|
||||
We present a scalable approach for semi-supervised learning on graph-structured data that is based on an efficient variant of convolutional neural networks which operate directly on graphs. We motivate the choice of our convolutional architecture via a localized first-order approximation of spectral graph convolutions. Our model scales linearly in the number of graph edges and learns hidden layer representations that encode both local graph structure and features of nodes. In a number of experiments on citation networks and on a knowledge graph dataset we demonstrate that our approach outperforms related methods by a significant margin.
|
||||
|
||||
**第三个问题**:请列出论文的全部作者,按照此格式:`作者1, 作者2, 作者3`。
|
||||
|
||||
Thomas N. Kipf, Max Welling
|
||||
|
||||
**第四个问题**:请直接告诉我这篇论文发表在哪个会议或期刊,请不要推理或提供额外信息。
|
||||
|
||||
ICLR 2017
|
||||
|
||||
**第五个问题**:请详细描述这篇论文主要解决的核心问题,并用简洁的语言概述。
|
||||
|
||||
核心问题:在图结构数据的半监督节点分类中,如何在不依赖图拉普拉斯显式正则化或复杂嵌入管线的情况下,高效且可扩展地学习同时编码局部图结构与节点特征的表示,并在大规模图上实现端到端训练。简述:通过谱卷积的一阶近似构造GCN的层传播f(X,A),用归一化邻接进行特征平滑与聚合,实现线性复杂度的半监督分类。
|
||||
|
||||
**第六个问题**:请告诉我这篇论文提出了哪些方法,请用最简洁的方式概括每个方法的核心思路。
|
||||
|
||||
1) 一阶谱近似卷积:用Chebyshev多项式K=1近似,将卷积化为L的线性函数,避免特征分解。
|
||||
2) 归一化与自环的renormalization trick:˜A=A+I,传播核为˜D^(-1/2) ˜A ˜D^(-1/2),稳定训练并统一度数影响。
|
||||
3) 两层GCN前向模型:Z=softmax(Â ReLU(Â X W(0)) W(1)),端到端最小化有标签节点的交叉熵。
|
||||
4) 高效稀疏实现:稀疏-稠密乘法,时间复杂度O(|E|CHF)。
|
||||
|
||||
**第七个问题**:请告诉我这篇论文所使用的数据集,包括数据集的名称和来源。
|
||||
|
||||
- Citeseer(citation network,Sen et al., 2008;采用Yang et al., 2016的设置)
|
||||
- Cora(citation network,Sen et al., 2008;同上)
|
||||
- Pubmed(citation network,Sen et al., 2008;同上)
|
||||
- NELL(知识图谱派生的二部图,来源于 Carlson et al., 2010,经Yang et al., 2016预处理)
|
||||
|
||||
**第八个问题**:请列举这篇论文评估方法的所有指标,并简要说明这些指标的作用。
|
||||
|
||||
- 分类准确率(accuracy):衡量在测试集上的节点分类正确率。
|
||||
- 训练收敛时间(秒):报告至收敛的墙钟时间,评估效率。
|
||||
- 随机划分的均值±标准误:在10个随机数据划分上的稳健性与方差。
|
||||
- 传播模型对比的准确率:比较不同谱近似/归一化策略下的性能差异。
|
||||
|
||||
**第九个问题**:请总结这篇论文实验的表现,包含具体的数值表现和实验结论。
|
||||
|
||||
- 准确率(原始划分):Citeseer 70.3%,Cora 81.5%,Pubmed 79.0%,NELL 66.0%,均优于Planetoid(Citeseer 64.7,Cora 75.7,Pubmed 77.2,NELL 61.9)。
|
||||
- 训练时间(秒):GCN分别为7、4、38、48;快于Planetoid的26、13、25、185。
|
||||
- 随机划分均值±SE:Citeseer 67.9±0.5,Cora 80.1±0.5,Pubmed 78.9±0.7,NELL 58.4±1.7。
|
||||
- 传播模型对比:renormalization trick在三数据集分别达70.3/81.5/79.0,优于K=2/3的Chebyshev(如Pubmed 74.4),以及一阶/单参数/仅邻接项等替代。 结论:GCN在性能与效率上均显著领先,证明一阶谱近似与归一化传播的有效性。
|
||||
|
||||
**第十个问题**:请清晰地描述论文所作的工作,分别列举出动机和贡献点以及主要创新之处。
|
||||
|
||||
- 动机:现有半监督图方法或依赖拉普拉斯正则化(限制建模能力),或分步嵌入管线(难优化),且在大图上计算昂贵;需要一种端到端、可扩展、能编码图结构与特征的模型。
|
||||
- 贡献点:
|
||||
1. 推导并提出基于谱卷积一阶近似的GCN层传播规则;
|
||||
2. 引入renormalization trick(自环与对称归一化)提升稳定性与泛化;
|
||||
3. 提供线性边数复杂度的稀疏实现,适配GPU/CPU;
|
||||
4. 在四个数据集上实现显著优于SOTA的准确率与更快训练时间,并系统比较传播模型。
|
||||
- 主要创新:
|
||||
- 将谱图卷积简化为一阶近似并结合归一化邻接实现高效端到端学习;
|
||||
- 无需显式拉普拉斯正则化,通过f(X,A)直接在图上传播监督信号;
|
||||
- 统一度数差异与数值稳定性的归一化设计,形成实用的两层GCN框架。
|
||||
Reference in New Issue
Block a user