跳至主要內容
地震反演基本知识

地震反演基本知识

基本概念

  1. 地震数据

    波向地下传播时,由于地下结构不同导致地震波会反射回地表,通过在地表设置检波器收集到的波数据即为地震数据。

  2. 速度模型

    在地震反演中,我们用速度模型来描述地下地质结构,不同的介质波的传播速度不一样,故而可以由速度模型反推介质成分。

  3. 波阻抗(Impedance)

    波阻抗等于速度乘密度,波阻抗越大代表要产生单位振动速度所需的应力越大。

  4. 反射系数

    反射系数代表地震波在地下不同介质界面上发生折射、反射的能量损失程度。计算公式为

    ri=AIi+1AIiAIi+1+AIi,(1) r_i = \frac{AI_{i+1} - AI_{i}}{AI_{i+1} + AI_i},\tag{1}

    其中AIAI代表波阻抗。

  5. 地震褶积

    其实就是子波和反射系数进行卷积运算,一般是在时间域进行运算。本质是把反射系数序列作为一个函数,是地震波传播的数字信号模拟。可以理解为地震波在地下垂直传播过程,在经过不同界面时和反射系数进行叠加。


Xenny原创大约 1 分钟FWIFWI
扩散模型(Diffusion model)

扩散模型(Diffusion model)

  • GAN的本质是将生成器的分布逼近真实分布。VAE则是训练两个分布q,pq, p分别表示从真实数据到噪声和噪声到生成数据的映射。

    扩散模型和VAE类似,也是一套从真实数据到噪声的分布以及噪声到生成数据的分布,但是在扩散模型中将这个过程分成了TT步。

    四种生成方式

    扩散模型包含两个部分:扩散和和逆扩散过程。


Xenny原创大约 5 分钟深度学习深度学习无监督学习扩散模型
论文写作

论文写作

  • 长期更新中...

英语

单词

  1. 多词同意

    1. 防止单词重复出现;
    2. 不同词性会有褒义/中性/贬义,修饰不同的东西,不同的词强调的东西也不同。

    例如diverse/different/multiple/various/等都有不同,多个的意思。但是例如various强调多,色彩更为褒义,different强调不同,色彩更为中性。

    例如achieve/reach/get都可以指代得到,完成什么。但明显achieve更具褒义。

  2. 不用(少用)口语词

    注意不是全部用高级词汇,不要堆砌辞藻。

    1. 例如many -> various, some -> several, do -> perform, need -> require, hard -> difficult.
  3. 主客观

    1. 评价(指主语是我们时)东西时少用主观色彩的形容词,即主观评价用客观词,客观评价可以用主观词。
  4. 形容词


Xenny原创大约 2 分钟杂项论文写作
生成对抗网络(GAN)

生成对抗网络(GAN)

  • 生成对抗网络(GAN,Generative Adversarial Network)是由Ian Goodfellow在2014年提出的一种DL模型。 GAN提出的初衷为解决使用无标签图像训练模型生成新的相似图像的问题。 它包含两个部分:生成器和判别器,它们通过对抗过程相互竞争进行无监督训练。

组成

GAN

生成器(Generator,G)

  • 生成器可以是任意架构的神经网络,输入为随机噪声,输出为生成样本。其目标是使生成的样本尽可能接近真实样本分布直至能够欺骗判别器

Xenny原创大约 3 分钟机器学习机器学习无监督学习GAN
SG-PML吸收边界条件(边界反射问题)

SG-PML吸收边界条件(边界反射问题)

  • 本文将对博文 波动方程的有限差分解(地震数据正演) 中提到的边界反射问题进行研究。解决地震正演中的边界反射带来的干扰。

    首先我们要知道波为什么会反射,当从一种介质进入另一种介质时,在介质边界由于阻抗的不连续性,导致一部分能量继续进入新的介质称为透射波,一部分能量返回原介质称为反射波。而我们将需要了解反射部分具体是多少,以及如何消除边界反射问题。

吸收边界条件

  • 自然界中地震波传播到介质边界(中断层)时,界面的波阻抗出现差异导致波发生反射和透射,地球介质可以看作“无限大”的区域,但在模拟计算中受到计算量的限制,模拟的传播区域大小是由界限的,这个人为截取的区域便是人工边界。

    在人工边界处,边界外的波速可以看为0,即边界反射系数绝对值为1,此时表现在数值模拟中便产生了全反射现象,对地震正演中的波场计算将产生影响。此时我们需要引入吸收边界的概念来吸收掉这些传播至边界的波。

  • 吸收边界条件即人为的在模拟计算区域的边界处设置一定厚度的吸收层,让能量在吸收层呈指数曲线衰减,最终在吸收层边界处近似衰减到0而避免边界反射。

    注意这里我们的衰减函数也是有讲究的,因为如果衰减不够连续的话吸收层也将看成断层产生反射,虽然这里使用指数曲线进行衰减,但是实际模拟时还是会产生一定量的反射波。


Xenny原创大约 14 分钟FWIPMLFWI
波动方程的有限差分解(地震数据正演)

波动方程的有限差分解(地震数据正演)

有限差分法

  • 有限差分法是一种求解微分方程的数值方法,对于微分方程来说微分项很难处理,有限差分的思路便是用近似的方法处理微分项,例如对于一个一阶微分方程

    u(x)+c(x)u(x)=f(x)u(a)=d(1) \begin{aligned} u^{'}(x) + c(x)u(x) &= f(x)\\ u(a) &= d \end{aligned}\tag{1}

    由导数定义有

    u(x)=limΔx0u(x+Δx)u(x)Δxu(x+Δx)u(x)Δx(2) u^{'}(x) = \lim\limits_{\Delta x \rightarrow 0}\frac{u(x+\Delta x) - u(x)}{\Delta x} \approx \frac{u(x + \Delta x) - u(x)}{\Delta x} \tag{2}

    这里的几何意义便是使用割线斜率近似替代切线斜率,显然Δx\Delta x越小则越精确,在后续求解中,我们将Δx\Delta x记为步长。

    图1. 微分近似表示

    由此在求解时我们要对求解区域进行离散化,即将区间按步长分为一个个离散点。设对于区间[a,b][a,b]共分为nn个区间,步长为hh,坐标为(x0,u0),(x1,u1),,(xn,un){(x_0, u_0), (x_1, u_1),\dots, (x_n,u_n)},则我们可以得到各点处导数值得近似表示

    ui=1h(ui+1ui)(3) u_i^{'} = \frac{1}{h}(u_{i+1}- u_i)\tag{3}

    带入原方程得

    (ui+1ui)/h+c(xi)ui=f(xi) (u_{i+1} - u_i)/h + c(x_i)u_i = f(x_i)

    其中xi=a+ih,i=0,1,2,x_i = a+ih, i=0,1,2,\dots,则我们有nn个方程(i=0,1,,n1)(i=0,1,\dots,n-1),包含nn个未知数(u1,u2,,un)(u_1,u_2,\dots,u_n)。此时我们对方程变形得到

    ui+1=(1hc(xi))ui+hf(xi)(4) u_{i+1} = (1-hc(x_i))u_i + hf(x_i)\tag{4}

    则上述方程组可写为矩阵的形式

    [1C11cn11](u1u2nn)=(hf(x0)hf(x1)hf(xn1))(C0u000)(5) \begin{bmatrix} 1&&&\\ C_1&1&&\\ &\ddots&\ddots&\\ &&c_{n-1}&1 \end{bmatrix}\begin{pmatrix} u_1\\ u_2\\ \vdots\\ n_n \end{pmatrix} = \begin{pmatrix} hf(x_0)\\ hf(x_1)\\ \vdots\\ hf(x_{n-1}) \end{pmatrix} - \begin{pmatrix} C_0u_0\\ 0\\ \vdots\\ 0 \end{pmatrix}\tag{5}

    其中Ci=hc(xi)1C_i = hc(x_i)-1,上述矩阵方程记为Au=F\mathbf{A}\boldsymbol{u} = \mathbf{F},则解为u=A1F\boldsymbol{u} = \mathbf{A}^{-1}\mathbf{F}(这里显然r(A)=nr(\mathbf{A}) = n即可逆)。


Xenny原创大约 17 分钟FWI有限差分FWI
全卷积网络(FCN)

全卷积网络(FCN)

  • 在CNN中,通过卷积的引入能够很好的对图片进行分类,但是如何识别图片中的物体依然是一个难题。CNN会在卷积层之后接入若干全连接层,将卷积层产生的特征图映射为固定长度的特征向量进行输出,每个值代表样本属于某个类别的概率。

    CNN分类

    全卷积网络(Fully Convolutional Nerworks,FCN)则是抛弃最终的全连接层,直接对图像进行像素级的分类,在FCN中将引入反卷积层将对卷积层的输出进行采样恢复为输入图像的大小,从而对每个像素产生一个预测值,最后逐个像素计算softmax分类损失获取最终分类预测。

    FCN分类

Xenny原创大约 4 分钟深度学习深度学习神经网络FCN
循环神经网络(RNN)

循环神经网络(RNN)

  • 在之前的网络中我们都是在关心层与层之间的协作,同层节点之间是无连接状态,信息按顺序从上一层到下一层,这种网络如果要处理一些上下文强关联的问题便显得无能为力。例如在NLP中要预测下一个单词则需要处理前文包含的各种特征,此时提出了一种新的神经网络,循环神经网络(Recurrent Neural Network,RNN),它对于序列化数据有很强的拟合能力。

延迟器

  • 在RNN隐藏层之中的节点不再是相互独立的,每个节点将包含三部分输入数据

    上一层的输出、自身上一时刻输出、上一节点输出。

    RNN网络结构

    可以看到隐藏层中的节点不仅有来自输入层的连接,还有节点之间的自连和互连。

  • 其中节点的自连接代表节点的输出会再次作为节点的输入,但这并不是马上完成的,数据会经过延迟器在下一时刻再进入该节点。

    也就是说在RNN中包含了对时序特征的处理,对于同一数据根据其前文不同也将得到不同的输出。这也便是RNN中最重要的特征,通过引入延迟器来让网络模型包含“记忆”。

  • 延迟器只是一个虚拟单元,也称为RNN的记忆单元,它的作用便是保存上一次的节点状态信息,每次节点计算时将使用上一次的状态信息参与进行并更新状态,可以理解为一个动态偏置,状态信息的计算与神经元计算类似,它也包含权重参数

    st=f(wxt+vst1) s_t = f(\boldsymbol{w}x_t + \boldsymbol{v}s_{t-1})

    其中tt代表时刻信息,ff是一个非线性激活函数,w,v\boldsymbol{w},\boldsymbol{v}分别为输入的权重参数和状态的权重参数。


Xenny原创大约 4 分钟深度学习深度学习神经网络RNN
卷积神经网络(CNN)

卷积神经网络(CNN)

  • 卷积神经网络(Convolutional Neural Networks, CNN)是深度学习中一种重要的神经网络结构,特别适用于处理图像相关的机器学习问题。CNN通过模拟人脑视觉皮层对图像的处理机制,自动提取图像中的特征,从而实现对图像的识别和理解。

    在传统的MLP中,网络被简单的分为了表现层(特征提取)和决策层(输出),而在CNN中网络被进一步细分,以便能够更好的提取图像中的局部特征,具体分层结构为

    1. 输入层:输入信息;
    2. 卷积层:提取图像底层特征;
    3. 池化层:减少数据维度,防止过拟合;
    4. 全连接层:汇总图像底层特征和信息;
    5. 输出层:根据输入进行决策输出预测值。

Xenny原创大约 10 分钟深度学习深度学习神经网络CNN