forked from manbo/internal-docs
60 lines
11 KiB
Markdown
60 lines
11 KiB
Markdown
# NEUZZ Efficient Fuzzing with Neural Program Smoothing
|
||
|
||
|
||
|
||
**第一个问题**:请对论文的内容进行摘要总结,包含研究背景与问题、研究目的、方法、主要结果和结论,字数要求在150-300字之间,使用论文中的术语和概念。
|
||
|
||
论文指出传统graybox fuzzing多依赖evolutionary guidance,易陷入随机变异的低效序列,难以触发深层分支与hard-to-trigger bugs;而直接用gradient-guided optimization又会被真实程序的discontinuities、plateaus与ridges卡住。研究目的在于通过program smoothing构造可微的surrogate function,使梯度方法可用于覆盖导向fuzzing。方法上,NEUZZ用feed-forward NN学习输入到edge bitmap(分支/边覆盖)的平滑近似,采用binary cross-entropy训练并做label降维(合并总是共现的边);再基于∇x f_i(θ,x)选取top-k高梯度字节并按梯度符号生成变异,同时通过coverage-based filtration进行incremental learning以避免遗忘。主要结果:在10个真实程序上,NEUZZ在24小时内相对10个SOTA fuzzers达到最高edge coverage(最高达3×,文中亦报告对AFL最高约10×);发现31个此前未知bug(含2个CVE),并在LAVA-M与DARPA CGC上分别找到更多注入/真实漏洞。结论是:神经网络程序平滑+梯度引导变异能显著提升fuzz效率与覆盖,并具备良好可扩展性。
|
||
|
||
**第二个问题**:请提取论文的摘要原文,摘要一般在Abstract之后,Introduction之前。
|
||
|
||
Abstract—Fuzzing has become the de facto standard technique for finding software vulnerabilities. However, even state-of-the-art fuzzers are not very efficient at finding hard-to-trigger software bugs. Most popular fuzzers use evolutionary guidance to generate inputs that can trigger different bugs. Such evolutionary algorithms, while fast and simple to implement, often get stuck in fruitless sequences of random mutations. Gradient-guided optimization presents a promising alternative to evolutionary guidance. Gradient-guided techniques have been shown to significantly outperform evolutionary algorithms at solving high-dimensional structured optimization problems in domains like machine learning by efficiently utilizing gradients or higher-order derivatives of the underlying function. However,gradient-guidedapproachesarenotdirectly applicable to fuzzing as real-world program behaviors contain many discontinuities, plateaus, and ridges where the gradient-based methods often get stuck. We observe that this problem can be addressed by creating a smooth surrogate function approximating the target program’s discrete branching behavior. In this paper, we propose a novel program smoothing technique using surrogate neural network models that can incrementally learn smooth approximations of a complex, real-world program’s branching behaviors. We further demonstrate that such neural network models can be used together with gradient-guided input generation schemes to significantly increase the efficiency of the fuzzing process. OurextensiveevaluationsdemonstratethatNEUZZ significantly outperforms 10 state-of-the-art graybox fuzzers on 10 popular real-world programs both at finding new bugs and achieving higher edge coverage. NEUZZ found 31 previously unknown bugs (including two CVEs) that other fuzzers failed to find in 10 real-world programs and achieved 3X more edge coverage than all of the tested graybox fuzzers over 24 hour runs. Furthermore, NEUZZ also outperformed existing fuzzers on both LAVA-M and DARPA CGC bug datasets.
|
||
|
||
**第三个问题**:请列出论文的全部作者,按照此格式:`作者1, 作者2, 作者3`。
|
||
|
||
Dongdong She, Kexin Pei, Dave Epstein, Junfeng Yang, Baishakhi Ray, Suman Jana
|
||
|
||
**第四个问题**:请直接告诉我这篇论文发表在哪个会议或期刊,请不要推理或提供额外信息。
|
||
|
||
arXiv:1807.05620v4
|
||
|
||
**第五个问题**:请详细描述这篇论文主要解决的核心问题,并用简洁的语言概述。
|
||
|
||
核心问题是:覆盖导向fuzzing本质是优化问题(最大化new edge coverage/bugs),但真实程序的分支行为对输入是高度离散且不光滑的目标函数,导致两类主流方法各有瓶颈:evolutionary algorithms无法利用梯度结构而易低效停滞;gradient-guided optimization虽高效,但在程序的discontinuities、plateaus、ridges处梯度不可用/不可靠而“卡住”。NEUZZ要解决的就是“如何在不引入符号执行等高开销白盒平滑的前提下,把程序分支行为变成可微、可求梯度的近似函数,并让梯度真正能指导变异去触达未覆盖边与隐藏漏洞”。简洁概述:用可微的神经网络代理模型平滑程序分支,使梯度引导变异在真实程序上可用且更高效。
|
||
|
||
**第六个问题**:请告诉我这篇论文提出了哪些方法,请用最简洁的方式概括每个方法的核心思路。
|
||
|
||
(1) Neural program smoothing:训练feed-forward surrogate NN,把输入字节序列映射为edge bitmap的“平滑近似”,从而可微、可求梯度。
|
||
(2) Edge-label降维预处理:仅保留训练集中出现过的边,并合并“总是共现”的边以缓解multicollinearity,减少输出维度(约从65,536降到~4,000)。
|
||
(3) Gradient-guided mutation(Algorithm 1):对选定的输出边神经元计算∇x f_i(θ,x),选top-k高梯度字节作为critical bytes,按梯度符号对字节做增/减并clip到[0,255]生成定向变异。
|
||
(4) Exponentially grow mutation target:从少量字节开始,逐轮扩大要变异的字节数,以覆盖更大输入空间同时保持单次搜索有效性。
|
||
(5) Incremental learning + coverage-based filtration:把新发现(触发新边)的输入加入,并用“只保留能带来新覆盖的旧数据摘要”控制数据规模,迭代重训以提高代理模型精度并避免灾难性遗忘。
|
||
(6) Magic-check辅助(LAVA/CGC场景):用定制LLVM pass插桩magic byte checks;用NN梯度先定位关键字节,再对相邻字节做局部穷举(4×256)以高效触发多字节条件。
|
||
|
||
**第七个问题**:请告诉我这篇论文所使用的数据集,包括数据集的名称和来源。
|
||
|
||
(1) 10个真实世界程序集:binutils-2.30(readelf -a, nm -C, objdump -D, size, strip)、harfbuzz-1.7.6、libjpeg-9c、mupdf-1.12.0、libxml2-2.9.7、zlib-1.2.11(论文表IIb列出;来源为对应开源项目/版本)。
|
||
(2) LAVA-M bug dataset:LAVA项目的子集(base64、md5sum、uniq、who,含注入的magic-number触发漏洞;来源引用[28] LAVA)。
|
||
(3) DARPA CGC dataset:Cyber Grand Challenge二进制/服务程序数据集(论文从中随机选50个binary评测;来源引用[26] CGC repository)。
|
||
(4) 训练数据来源:先运行AFL-2.52b 1小时生成初始seed corpus与边覆盖标签,用于训练NN(平均每个程序约2K训练输入)。
|
||
|
||
**第八个问题**:请列举这篇论文评估方法的所有指标,并简要说明这些指标的作用。
|
||
|
||
(1) Bugs found / crashes:统计发现的真实漏洞与崩溃数量,用于衡量漏洞挖掘能力;内存类问题通过AddressSanitizer的stack trace去重,整数溢出通过人工分析+UBSan验证。
|
||
(2) Edge coverage(new control-flow edges):以AFL的edge coverage report统计“新增边数”,作为覆盖导向fuzzing的核心效果指标。
|
||
(3) 运行时间预算下的覆盖增长曲线:比较24h(真实程序)、5h(LAVA-M)、6h(CGC)内覆盖随时间变化,体现“到达新边的速度”。
|
||
(4) 训练开销/时间(NEUZZ train(s), training time sec):衡量学习组件的成本(如与RNN fuzzer对比时报告训练时间差异)。
|
||
(5) 固定变异预算下的覆盖(如1M mutations):在控制变异次数时比较不同方法/模型的有效性,排除训练时长差异干扰。
|
||
(6) NN预测精度(test accuracy约95%平均):用于说明代理模型对分支行为预测质量(间接影响梯度指导有效性)。
|
||
|
||
**第九个问题**:请总结这篇论文实验的表现,包含具体的数值表现和实验结论。
|
||
|
||
真实程序(24h):NEUZZ在10个程序上均取得最高edge coverage(表VI示例:readelf -a 4,942;harfbuzz 6,081;nm -C 2,056;libxml 1,596;mupdf 487;zlib 376等),并在多程序上呈现“1小时内新增>1,000边”的领先速度;文中总结对AFL在9/10程序上分别约6×、1.5×、9×、1.8×、3.7×、1.9×、10×、1.3×、3×的边覆盖优势,并称相对次优fuzzer可达约4.2×、1.3×、7×、1.2×、2.5×等提升。真实漏洞(表III):在6个fuzzer对比中NEUZZ总计发现60个bug(AFL 29,AFLFast 27,VUzzer 14,KleeFL 26,AFL-laf-intel 60?——表中按项目/类型给出,且NEUZZ覆盖5类bug并额外拿到2个CVE:CVE-2018-19931/19932)。LAVA-M(5h):NEUZZ在base64找到48、md5sum 60、uniq 29、who 1,582(表IV),整体优于Angora等对比项。CGC(6h,50 binaries):NEUZZ触发31个有漏洞binary,AFL为21、Driller为25,且NEUZZ覆盖了AFL/Driller找到的全部并额外多6个(表V)。与RNN fuzzer对比(1M mutations,表VII):NEUZZ在readelf/libjpeg/libxml/mupdf上分别获得约8.4×/4.2×/6.7×/3.7×更多边覆盖,且训练开销约低20×。模型消融(表VIII):线性模型显著落后;增量学习进一步提升(如readelf -a:1,723→1,800→2,020)。结论:神经平滑+梯度定向变异在覆盖与找bug上均显著优于多种SOTA,且训练/执行开销可控、可扩展到大程序。
|
||
|
||
**第十个问题**:请清晰地描述论文所作的工作,分别列举出动机和贡献点以及主要创新之处。
|
||
|
||
动机:evolutionary fuzzing在深层逻辑与稀疏漏洞上效率低;梯度优化在高维结构化问题上更强,但直接用于程序会被分支离散性导致的不可微/不连续行为阻断;既有program smoothing依赖符号执行/抽象解释,开销大且不可扩展。
|
||
|
||
贡献点:(1) 提出“program smoothing对gradient-guided fuzzing至关重要”的核心观点,并把fuzzing形式化为优化问题,明确为何需要平滑代理。 (2) 设计首个可扩展的surrogate neural network program smoothing:用feed-forward NN学习输入→edge coverage bitmap的平滑近似,并通过标签降维解决训练可行性。 (3) 提出面向覆盖的gradient-guided mutation策略:利用∇x f_i(θ,x)定位critical bytes与变异方向,系统生成高价值变异而非均匀随机。 (4) 提出coverage-based filtration的incremental learning流程,持续用新覆盖数据纠正代理模型且避免灾难性遗忘。 (5) 实现NEUZZ并在真实程序、LAVA-M、CGC上进行大规模对比,证明在bug数量与edge coverage上显著超越10个SOTA fuzzers。
|
||
|
||
主要创新之处:用“可微代理模型”把离散分支行为平滑为可求梯度的函数,再把梯度直接转化为变异位置/方向的决策信号,从而以低开销获得比符号/污点等重分析更强的探索能力。 |