Tiramisu 模型与 U-Net 模型大致相似,但它使用密集块进行卷积和转置卷积。它涉及使用多层卷积,以便前几层的特征图作为后续层的输入数据。因此,它改善了输出。
但是,这种方法也存在一个问题。它需要大型 GPU 才能高效运行。
多尺度方法
一些深度学习模型使用方法来整合来自多个尺度的信息。金字塔场景解析网络(也称为 PSPNet)就是这样一个例子。它通过使用四种不同的内核大小来执行池化操作,以跨 开曼群岛手机号码数据库 度到 CNN 的输出特征图。
随后,它使用双线性插值等技术升级池化输出和 CNN 输出特征图的大小,并沿通道轴将它们连接起来。它对该连接的输出执行最终卷积以生成预测。
另一个例子是带孔卷积,它提供了一种在不增加参数数量的情况下组合多个尺度特征的有效方法。它调整扩张率,从而使同一滤波器将其权重值扩展得更远。
DeepLabv3 论文就是 Atrous Convolution 的一个例子。它使用这种方法以不同的扩张率来捕获来自多个尺度的信息,而不会影响图像的大小。
语义分割
语义分割来源 – mit
混合 CNN-CRF 方法
一些语义分割网络使用 CNN 作为特征提取器,随后使用这些特征作为密集 CRF 的潜在输入。这种混合方法之所以成功,是因为 CRF 能够对像素间关系进行建模。
损失函数
我们已经了解了模型架构。现在,我们将研究损失函数的作用。与标准分类器不同,语义分割需要使用不同的损失函数。以下是其中一些。
带交叉熵的像素级 Softmax
在此模式下,语义分割的标签大小与原始图像相似。因此,它可以以独热编码形式表示。标签可以用作计算交叉熵的目标。在应用交叉熵之前,应确保逐像素应用 Softmax。
焦点损失
Focal Loss 建议对标准交叉熵损失进行升级以供使用,特别是在类别极度不平衡的情况下。
骰子损失
它是广泛用于类别极度不平衡的语义分割问题的一种损失函数。Dice Loss 可以帮助计算预测类别和真实类别之间的重叠。
应用
我们已经了解了语义分割网络的各种深度学习方法。现在,我们将研究一些流行的实际应用,以更好地理解这一概念。
提拉米苏模型
-
tanjimajha12
- Posts: 194
- Joined: Mon Dec 23, 2024 4:56 am