Update TeX fomula

Change the TeX formula to the correctly rendered state
This commit is contained in:
2026-01-07 14:52:09 +08:00
parent 1728a88f4e
commit baf511a81d

View File

@@ -73,15 +73,15 @@
#### 2. 技术原理拆解
##### A. 前向过程 (Forward Process / Diffusion Process)
假设我们有一个真实数据分布 $x_0$在本论文中是真实的流量矩阵。我们定义一个马尔可夫链Markov Chain在每一步 $t$ 添加少量的高斯噪声。
* 公式逻辑:$q(x_t | x_{t-1}) = \mathcal{N}(x_t; \sqrt{1-\beta_t}x_{t-1}, \beta_t I)$
* 随着步数 $T$ 增加(例如 $T=1000$),原始数据 $x_0$ 最终变成标准的正态分布噪声 $x_T$。
假设我们有一个真实数据分布 $x_0$ 在本论文中是真实的流量矩阵。我们定义一个马尔可夫链Markov Chain在每一步 $t$ 添加少量的高斯噪声。
* 公式逻辑: $q(x_t | x_{t-1}) = \mathcal{N}(x_t; \sqrt{1-\beta_t}x_{t-1}, \beta_t I)$
* 随着步数 $T$ 增加(例如 $T=1000$ ),原始数据 $x_0$ 最终变成标准的正态分布噪声 $x_T$
* **工程师视角**:这个过程是不含可学习参数的,是固定的数学变换。
##### B. 反向过程 (Reverse Process / Denoising Process)
这是模型训练的核心。既然我们知道前向过程是加噪声,如果我们能训练一个神经网络 $p_\theta$,让它预测每一步加入了什么噪声,我们就能把它减掉。
* **目标**:从 $x_T$(纯噪声)开始,通过神经网络预测并减去噪声,逐步得到 $x_{T-1}, \dots, x_0$。
* **神经网络的作用**:论文中的 **STUnet** 就是这个网络。它的输入是当前时刻的噪声数据 $x_t$ 和时空条件,输出是预测的噪声 $\epsilon_\theta$。
* **目标**:从 $x_T$ (纯噪声)开始,通过神经网络预测并减去噪声,逐步得到 $x_{T-1}, \dots, x_0$
* **神经网络的作用**:论文中的 **STUnet** 就是这个网络。它的输入是当前时刻的噪声数据 $x_t$ 和时空条件,输出是预测的噪声 $\epsilon_\theta$
* **损失函数**通常使用均方误差MSE或 L1 损失,计算“预测的噪声”与“实际加入的噪声”之间的差异。
#### 3. 为什么扩散模型优于 GAN