新增提取所有md文件的脚本

所有md文件都会被提取到/papers/md文件夹下
This commit is contained in:
Hongyu Yan
2026-01-26 18:22:48 +08:00
parent 1b86bc7927
commit 1cbfc6d53d
27 changed files with 1457 additions and 0 deletions

View File

@@ -0,0 +1,64 @@
# Semi-Supervised Classification with Graph Convolutional Networks
**第一个问题**请对论文的内容进行摘要总结包含研究背景与问题、研究目的、方法、主要结果和结论字数要求在150-300字之间使用论文中的术语和概念。
摘要总结本文提出一种可扩展的半监督图节点分类方法——Graph Convolutional NetworksGCN基于对谱域图卷积的局部一阶近似构建高效的层间传播规则。研究背景是图结构数据的半监督学习常依赖图拉普拉斯正则化或多步嵌入管线存在建模能力和效率不足。研究目的在于直接在图上进行端到端的特征传播与学习通过f(X,A)编码邻接结构与节点特征。方法核心为对A加自环并归一化的“renormalization trick”使用 ˜D^(-1/2) ˜A ˜D^(-1/2) 的线性传播与ReLU/softmax组成两层GCN复杂度线性随边数扩展。主要结果显示在Citeseer、Cora、Pubmed与NELL上GCN在准确率与训练时间上显著优于Planetoid等基线并验证不同传播模型下该近似的优势。结论GCN无需显式拉普拉斯正则化即可高效学习能同时编码局部图结构与节点特征实现大规模半监督节点分类的SOTA性能。
**第二个问题**请提取论文的摘要原文摘要一般在Abstract之后Introduction之前。
We present a scalable approach for semi-supervised learning on graph-structured data that is based on an efficient variant of convolutional neural networks which operate directly on graphs. We motivate the choice of our convolutional architecture via a localized first-order approximation of spectral graph convolutions. Our model scales linearly in the number of graph edges and learns hidden layer representations that encode both local graph structure and features of nodes. In a number of experiments on citation networks and on a knowledge graph dataset we demonstrate that our approach outperforms related methods by a significant margin.
**第三个问题**:请列出论文的全部作者,按照此格式:`作者1, 作者2, 作者3`
Thomas N. Kipf, Max Welling
**第四个问题**:请直接告诉我这篇论文发表在哪个会议或期刊,请不要推理或提供额外信息。
ICLR 2017
**第五个问题**:请详细描述这篇论文主要解决的核心问题,并用简洁的语言概述。
核心问题在图结构数据的半监督节点分类中如何在不依赖图拉普拉斯显式正则化或复杂嵌入管线的情况下高效且可扩展地学习同时编码局部图结构与节点特征的表示并在大规模图上实现端到端训练。简述通过谱卷积的一阶近似构造GCN的层传播f(X,A),用归一化邻接进行特征平滑与聚合,实现线性复杂度的半监督分类。
**第六个问题**:请告诉我这篇论文提出了哪些方法,请用最简洁的方式概括每个方法的核心思路。
1) 一阶谱近似卷积用Chebyshev多项式K=1近似将卷积化为L的线性函数避免特征分解。
2) 归一化与自环的renormalization trick˜A=A+I传播核为˜D^(-1/2) ˜A ˜D^(-1/2),稳定训练并统一度数影响。
3) 两层GCN前向模型Z=softmax(Â ReLU(Â X W(0)) W(1)),端到端最小化有标签节点的交叉熵。
4) 高效稀疏实现:稀疏-稠密乘法时间复杂度O(|E|CHF)。
**第七个问题**:请告诉我这篇论文所使用的数据集,包括数据集的名称和来源。
- Citeseercitation networkSen et al., 2008采用Yang et al., 2016的设置
- Coracitation networkSen et al., 2008同上
- Pubmedcitation networkSen et al., 2008同上
- NELL知识图谱派生的二部图来源于 Carlson et al., 2010经Yang et al., 2016预处理
**第八个问题**:请列举这篇论文评估方法的所有指标,并简要说明这些指标的作用。
- 分类准确率accuracy衡量在测试集上的节点分类正确率。
- 训练收敛时间(秒):报告至收敛的墙钟时间,评估效率。
- 随机划分的均值±标准误在10个随机数据划分上的稳健性与方差。
- 传播模型对比的准确率:比较不同谱近似/归一化策略下的性能差异。
**第九个问题**:请总结这篇论文实验的表现,包含具体的数值表现和实验结论。
- 准确率原始划分Citeseer 70.3%Cora 81.5%Pubmed 79.0%NELL 66.0%均优于PlanetoidCiteseer 64.7Cora 75.7Pubmed 77.2NELL 61.9)。
- 训练时间GCN分别为7、4、38、48快于Planetoid的26、13、25、185。
- 随机划分均值±SECiteseer 67.9±0.5Cora 80.1±0.5Pubmed 78.9±0.7NELL 58.4±1.7。
- 传播模型对比renormalization trick在三数据集分别达70.3/81.5/79.0优于K=2/3的Chebyshev如Pubmed 74.4),以及一阶/单参数/仅邻接项等替代。 结论GCN在性能与效率上均显著领先证明一阶谱近似与归一化传播的有效性。
**第十个问题**:请清晰地描述论文所作的工作,分别列举出动机和贡献点以及主要创新之处。
- 动机:现有半监督图方法或依赖拉普拉斯正则化(限制建模能力),或分步嵌入管线(难优化),且在大图上计算昂贵;需要一种端到端、可扩展、能编码图结构与特征的模型。
- 贡献点:
1. 推导并提出基于谱卷积一阶近似的GCN层传播规则
2. 引入renormalization trick自环与对称归一化提升稳定性与泛化
3. 提供线性边数复杂度的稀疏实现适配GPU/CPU
4. 在四个数据集上实现显著优于SOTA的准确率与更快训练时间并系统比较传播模型。
- 主要创新:
- 将谱图卷积简化为一阶近似并结合归一化邻接实现高效端到端学习;
- 无需显式拉普拉斯正则化通过f(X,A)直接在图上传播监督信号;
- 统一度数差异与数值稳定性的归一化设计形成实用的两层GCN框架。