跳至主要內容
FISTA解决地震反演问题 [WIP]

FISTA解决地震反演问题 [WIP]

  • 迭代收缩阈值算法(Iterative shrinkage-thresholding algorithm, ISTA)是一种用于信号处理和图像重建的优化算法。

    本文将介绍ISTA算法原理和其处理地震反演问题的实际应用。

优化问题

梯度下降

  • 对于一个线性变换问题y=Ax+b\mathbf{y} = \mathbf{A}\mathbf{x} + \mathbf{b},其中A\mathbf{A}y\mathbf{y}已知,b\mathbf{b}为未知噪音,我们需要求解x\mathbf{x}

    本质上这就是一个线性回归问题,从线性回归可知我们可以使用梯度下降解决这个问题。

  • 梯度下降会带来新的问题,对于无约束的优化问题

    minx{F(x)f(x)}.(1) \underset{x}{\min}\{F(x)\equiv f(x)\}.\tag{1}

    若实函数F(x)F(x)在点aa处可微且有定义,梯度下降总是认为F(x)F(x)在点aa沿着梯度相反的方向F(a)-\nabla F(a)下降最快。

    所以当f(x)f(x)连续可微时,若存在一个足够小的数值t>0t>0使得

    x2=x1tF(a).(2) x_2 = x_1 -t\nabla F(a).\tag{2}

    则有F(x1)F(x2)F(x_1) \ge F(x_2)

    梯度下降核心便是通过式2找到序列{xk}\{x_k\},使得F(xk)F(xk1)F(x_k)\ge F(x_{k-1})

    显然,此时初值的选取成了关键,即梯度下降可能陷入局部最优,同时tkt_k的选取(机器学习中的学习率)也是关键,太小会导致迭代太慢,太大会导致无法收敛。


Xenny大约 5 分钟深度学习FISTA
Pyramid Scene Parsing Network

Pyramid Scene Parsing Network

  • 原文地址:Pyramid Scene Parsing Network

  • 这是一种基于整合全局上下文信息的金字塔池化模块的网络架构,根据全局先验信息能够有效地进行图像分割。

金字塔池化

  • 在深度神经网络中,感受野的大小决定了使用上下文信息的能力。常用的池化例如全局平均池化(GAP)利用全局信息进行池化,但在复杂场景下表现并不好,作者希望能够有一个基于子区域的全局上下文信息表示,于是提出了金字塔池化的概念。

    图1. PSPNet架构

    在金字塔池化模块中,特征图先经过池化操作(使用自适应平均池化)进行下采样,再进行上采样(使用二次线性差值)得到新的特征图并与原特征图拼接。

    同时金字塔池化融合了四个比例的特征(默认是[1, 2, 3, 6])。


Xenny原创大约 2 分钟深度学习深度学习PSPNet
扩散模型(Diffusion model)

扩散模型(Diffusion model)

  • GAN的本质是将生成器的分布逼近真实分布。VAE则是训练两个分布q,pq, p分别表示从真实数据到噪声和噪声到生成数据的映射。

    扩散模型和VAE类似,也是一套从真实数据到噪声的分布以及噪声到生成数据的分布,但是在扩散模型中将这个过程分成了TT步。

    四种生成方式

    扩散模型包含两个部分:扩散和和逆扩散过程。


Xenny原创大约 5 分钟深度学习深度学习无监督学习扩散模型
全卷积网络(FCN)

全卷积网络(FCN)

  • 在CNN中,通过卷积的引入能够很好的对图片进行分类,但是如何识别图片中的物体依然是一个难题。CNN会在卷积层之后接入若干全连接层,将卷积层产生的特征图映射为固定长度的特征向量进行输出,每个值代表样本属于某个类别的概率。

    CNN分类

    全卷积网络(Fully Convolutional Nerworks,FCN)则是抛弃最终的全连接层,直接对图像进行像素级的分类,在FCN中将引入反卷积层将对卷积层的输出进行采样恢复为输入图像的大小,从而对每个像素产生一个预测值,最后逐个像素计算softmax分类损失获取最终分类预测。

    FCN分类

Xenny原创大约 4 分钟深度学习深度学习神经网络FCN
循环神经网络(RNN)

循环神经网络(RNN)

  • 在之前的网络中我们都是在关心层与层之间的协作,同层节点之间是无连接状态,信息按顺序从上一层到下一层,这种网络如果要处理一些上下文强关联的问题便显得无能为力。例如在NLP中要预测下一个单词则需要处理前文包含的各种特征,此时提出了一种新的神经网络,循环神经网络(Recurrent Neural Network,RNN),它对于序列化数据有很强的拟合能力。

延迟器

  • 在RNN隐藏层之中的节点不再是相互独立的,每个节点将包含三部分输入数据

    上一层的输出、自身上一时刻输出、上一节点输出。

    RNN网络结构

    可以看到隐藏层中的节点不仅有来自输入层的连接,还有节点之间的自连和互连。

  • 其中节点的自连接代表节点的输出会再次作为节点的输入,但这并不是马上完成的,数据会经过延迟器在下一时刻再进入该节点。

    也就是说在RNN中包含了对时序特征的处理,对于同一数据根据其前文不同也将得到不同的输出。这也便是RNN中最重要的特征,通过引入延迟器来让网络模型包含“记忆”。

  • 延迟器只是一个虚拟单元,也称为RNN的记忆单元,它的作用便是保存上一次的节点状态信息,每次节点计算时将使用上一次的状态信息参与进行并更新状态,可以理解为一个动态偏置,状态信息的计算与神经元计算类似,它也包含权重参数

    st=f(wxt+vst1) s_t = f(\boldsymbol{w}x_t + \boldsymbol{v}s_{t-1})

    其中tt代表时刻信息,ff是一个非线性激活函数,w,v\boldsymbol{w},\boldsymbol{v}分别为输入的权重参数和状态的权重参数。


Xenny原创大约 4 分钟深度学习深度学习神经网络RNN
卷积神经网络(CNN)

卷积神经网络(CNN)

  • 卷积神经网络(Convolutional Neural Networks, CNN)是深度学习中一种重要的神经网络结构,特别适用于处理图像相关的机器学习问题。CNN通过模拟人脑视觉皮层对图像的处理机制,自动提取图像中的特征,从而实现对图像的识别和理解。

    在传统的MLP中,网络被简单的分为了表现层(特征提取)和决策层(输出),而在CNN中网络被进一步细分,以便能够更好的提取图像中的局部特征,具体分层结构为

    1. 输入层:输入信息;
    2. 卷积层:提取图像底层特征;
    3. 池化层:减少数据维度,防止过拟合;
    4. 全连接层:汇总图像底层特征和信息;
    5. 输出层:根据输入进行决策输出预测值。

Xenny原创大约 10 分钟深度学习深度学习神经网络CNN
神经网络——多层感知机(MLP)

神经网络——多层感知机(MLP)

  • 神经网络基本概念 中已经介绍了感知机的概念,它是使用神经元进行二分类线性分类模型,本质也就是计算输入特征的线性组合wx+b\boldsymbol{wx} + b来对样本进行分类。在训练过程中通过不断的修正参数来找到一个能够正确对样本进行分类的超平面(决策边界)wx+b=0\boldsymbol{wx} + b=0。我们已经了解了感知机的基本结果以及工作流程,同时我们也知道感知机只能对线性可分的数据进行分类,而对线性不可分的数据无法处理。而多层感知机正是为了处理这一问题而提出的。

Xenny原创大约 3 分钟深度学习深度学习神经网络MLP
神经网络——激活函数

神经网络——激活函数

  • 激活函数的主要作用是加入非线性变换防止多层网络退化为单层网络。

    激活函数的选择遵循如下标准:

    1. 最大限度增强、放大输入的有效特征,去除、降低噪音特征;
    2. 缩短训练周期,加快模型收敛,选择可导且求导快的激活函数;
    3. 避免梯度消失梯度爆炸神经元死亡等问题。

Sigmoid函数

  • 这个函数我们已经很熟悉了,它又称为S形函数,能够将输入压缩到(0,1)(0,1)中并且处处连续可导,输出非常平滑。

    函数表达式为

    Λ(z)=11+ez \Lambda(z) = \frac{1}{1+e^{-z}}

    其中(0,0.5)(0, 0.5)是函数中心点。虽然该函数在ML中应用广泛,但在神经网络模型中有些情况下并不是一个最好的选择,由于数据的不同,该函数可能会引起如下问题。


Xenny原创大约 6 分钟深度学习深度学习神经网络
神经网络——损失函数&反向传播

神经网络——损失函数&反向传播

  • 神经网络基本概念 中已经介绍了神经网络的基本模型,而在构造好这个模型之后,对于一个完整的训练过程,我们还需要如下工作:

    1. 进行正向计算,得到原始数据通过神经网络得到的输出结果;
    2. 根据损失函数计算结果与实际结果之间的差异,并将差异给到优化函数;
    3. 优化函数通过反向传播层层更正权重参数,完成一轮训练;
    4. 重复上述过程直到损失值降到一个可接受范围得到最终模型。

    本文将关注神经网络中的损失函数和反向传播过程,来了解神经网络是如何进行学习的。


Xenny原创大约 4 分钟深度学习深度学习神经网络