Processing math: 30%
   海洋科学  2024, Vol. 48 Issue (7): 1-10   PDF    
http://dx.doi.org/10.11759/hykx20230118001

文章信息

盛辉, 曹文俊, 刘善伟, 王大伟, 杨俊芳, 张杰. 2024.
SHENG Hui, CAO Wenjun, LIU Shanwei, WANG Dawei, YANG Junfang, ZHANG Jie. 2024.
基于U-NET的双分支海上SAR溢油检测模型
A two-branch marine oil spill detection model based on U-NET
海洋科学, 48(7): 1-10
Marine Sciences, 48(7): 1-10.
http://dx.doi.org/10.11759/hykx20230118001

文章历史

收稿日期:2023-01-18
修回日期:2023-04-22
基于U-NET的双分支海上SAR溢油检测模型
盛辉, 曹文俊, 刘善伟, 王大伟, 杨俊芳, 张杰     
中国石油大学(华东)海洋与空间信息学院, 山东 青岛 266580
摘要:为提高海上溢油SAR(Synthetic Aperture Radar)检测的准确率, 本文提出一种基于U-NET和注意力门的海上溢油SAR检测模型(AW-net), 该模型将U-NET中传统的单输入编码器替换为双分支编码器, 分别输入纹理特征和SAR灰度特征, 并进一步采用注意力门融合纹理信息和灰度信息。实验利用1景海丝一号(HISEA-1)SAR数据构建样本训练集进行AW-net模型训练, 分别应用1景HISEA-1 SAR数据和1景Radarsat-2 SAR数据开展模型测试, 溢油检测准确率均优于U-NET、Attention U-NET和FCN等语义分割模型, 说明该模型具有较强的强鲁棒性和应用潜力。
关键词溢油检测    SAR    U-NET    注意力门    双分支编码器    
A two-branch marine oil spill detection model based on U-NET
SHENG Hui, CAO Wenjun, LIU Shanwei, WANG Dawei, YANG Junfang, ZHANG Jie     
College of Oceanography and Space Informatics, China University of Petroleum, Qingdao 266580, China
Abstract: To improve the accuracy of marine oil spill detection using synthetic aperture radar (SAR), an improved AW-net model based on U-NET and attention gate is proposed in this paper. In this model, the traditional single-input encoder in U-NET is replaced by a double-branch encoder and the multifeature input mode is changed from the previous feature stacking input to the texture feature and SAR gray image input in the double-branch encoder. This change is made to extract finer texture and gray information and improve the dimensionality caused by the multichannel overlay input. The multiscale texture information extracted by the double encoder is fused with the gray information using the attention gate. In the experiment, one piece of HISEA-1 SAR data was used for model training; furthermore, one piece each of HISEA-1 SAR data and Radarsat-2 SAR data was used for model testing. The oil spill detection accuracy of the two pieces of test data was better than that of other semantic segmentation models. These results demonstrate the robustness and application potential of the AW-net model.
Key words: oil spill detection    SAR    U-NET    attention gate    two-branch coder    

SAR(Synthetic Aperture Radar)是海上溢油业务化监测的一种有效手段, 近年来随着深度学习技术的不断发展, 越来越多的深度学习模型被应用于SAR溢油检测, 较传统机器学习方法取得了更好的效果, 成为当前SAR溢油检测领域的研究热点。

U-NET[1]在2015年提出, 能够实现只用很少的图像进行端到端的训练同时获得较高的精度, 被广泛应用于遥感图像分类中。ResU-Net[2-3]采用ResNet网络代替U-NET中的编码器, ResNet中的残差模块增加了跳跃连接, 将输入与输出直接进行相加, 补充了卷积过程中损失的特征信息。R2U-Net在编码器阶段用循环卷积层(RCLs)和带有残差单元的循环卷积层代替原有的正向卷积层, 使得网络在不增加参数量的同时具有优于U-Net和ResU-Net的分割性能。除采用残差模块对U-NET网络的编码器进行改进外, 空间注意力模块与通道注意力模块被运用于U-NET的编码器中来捕捉空间特征与通道特征之间的非线性关系, 增强局部相关特征[4]。针对U-NET的深度连接模块, Attention U-NET[5]通过使用注意力门结构替代U-NET原有的深度连接模块, 在保持计算效率的同时, 能够提高U-NET的预测性能。

以往的U-NET网络大多采用特征通道叠加的方式输入多特征数据进行训练学习[6]。而多特征数据中往往包含多种不同类型的特征, 例如统计学特征、形状特征、纹理特征、极化特征等[7], 特征堆叠会导致网络计算复杂性增加, 容易造成维数灾难问题[8-9], 为此有学者提出了特征融合与特征优选的方法来减少特征维度的输入[10-14], 但会损失部分特征信息。

本文提出了一种基于U-NET和注意力门的海上溢油SAR检测模型(Attention W-net, 简写AW-net), 利用双分支编码器分别提取纹理特征信息与灰度信息, 再通过注意力门对多尺度纹理信息与灰度信息进行融合, 得到包含信息更加全面的特征, 在此基础上开展溢油检测。

1 原理与方法

本文提出的AW-net模型是一种用于SAR溢油检测的双分支卷积神经网络, 模型采用双分支编码器代替U-NET原本的编码器, 使其能够同时处理输入的溢油纹理特征与溢油灰度特征, 在训练过程中模型的反向传播能够同时对这两个分支进行参数调整, 提取更精细的纹理信息与灰度信息, 并采用注意力门对双分支编码器中提取的多尺度纹理信息与灰度信息进一步捕获上下文信息, 并进行融合, 获取更加显著的特征信息。AW-net的模型结构如图 1所示。

图 1 AW-net网络结构图 Fig. 1 Model structure of AW-net
1.1 双分支编码器

AW-net设计了双分支编码器, 其包括灰度图像编码器与纹理编码器, 目的是分别提取灰度图像与纹理特征的深层特征信息。U-NET中的编码器能够提取不同尺度的特征, 小尺度的特征可以得到更多的细节, 大尺度的特征可以获取完整的语义特征[15]。双编码器的结构由10个卷积层和4个池化层组合而成, 各卷积层中的卷积核尺寸为3×3, 步长为1; 最大池化层的核大小为2×2, 步长为2。双编码器中的参数根据最终的检测结果与真实值的差异进行反向传播以不断的训练整个网络。在反向传播的过程中对灰度图像编码器与纹理编码器的参数进行不同程度的调整, 以对纹理特征和灰度图像进行特定的特征信息提取。提取到的多尺度纹理信息与灰度信息再经过注意力门进行特征加强, 以获得更好的分类性能。

1.2 注意力门

注意力门来源于Ozan Oktay等提出的Attention U-NET[5], 该模型采用注意力门(Attention Gate, AG)使模型自动聚焦于不同形状和大小的目标结构, 抑制输入图像中无关区域, 同时突出对特定任务有用的显著特征。灰度图像编码器与纹理编码器输出的不同尺度的特征经过注意力门进行融合, 融合后的特征与解码器中各上采样得到的对应尺寸的结果进行深度连接。

AG的结构如图 2所示, 门控信号g来自于输入特征xl的下一层, 其尺寸大小为Fl×Hx×Wx×Dxxl尺寸(Fg×Hg×Wg×Dg)的1/2, 因此纹理特征和灰度图像首先分别经过一个1×1×1的卷积WgWx使通道数以及尺寸一致, 再进行逐像素相加操作。然后经过Relu层, 再经过一个1×1×1的卷积层ψ将通道数降为1, 经过Sigmoid(图中σ2为归一化注意系数)层后得到注意力权重, 再经过Resample模块将尺寸还原为xl的原尺寸, 并将最初输入的图像特征与注意力系数α相乘得到融合后的纹理信息与灰度信息ˆxl

图 2 注意力门结构图 Fig. 2 Structure of attention gate
1.3 纹理特征提取

纹理特征描述了灰度的空间分布和空间相关性, 浮油与海面的纹理信息不同。本文采用灰度共生矩阵提取纹理特征。

灰度共生矩阵一般被定义为从灰度级为i的像素点离开某个固定位置关系d=(DX,DY)到达灰度级为j的像素点的概率, 所有估计的值均可以表示成一个矩阵的形式, 称为灰度共生矩阵[16-18]。浮油抑制了海面的短重力波和毛细波, 因此其纹理是光滑细腻的, 而海面的纹理则是粗糙的[19]。灰度共生矩阵用 \boldsymbol{P}(i, j)(i, j = 0, 1, 2, \cdot \cdot \cdot , L - 1) 表示, 其中L表示图像的灰度级, i, j分别表示像素点的灰度, d表示两个像素点间的空间位置关系。不同的d决定了两个像素点间的距离和方向。θ表示灰度共生矩阵的生成方向, 在每一方向上都可以得到多类特征, 但是这样得到纹理特征过于繁多, 不利于使用, 因此计算灰度共生矩阵时θ常取0°, 45°, 90°和135°这四个方向。灰度共生矩阵如图 3所示。

图 3 灰度共生矩阵 Fig. 3 Gray level co-occurrence matrix

两个灰度级的概率表示为:

p(i, j)=\frac{\boldsymbol{P}(i, j ; \theta, d)}{\sum\limits_{i=0}^{L-1} \sum\limits_{j=0}^{L-1} P(i, j ; \theta, d)}, (1)

其中, \boldsymbol{P}(i, j;\theta , d) 表示灰度级i, j在距离为d, 方向为θ上出现的次数, 灰度共生矩阵的大小为L×L, 并对其中的元素进行归一化操作。

在实际应用中一般不直接使用灰度共生矩阵, 而是采用在灰度共生矩阵的基础上计算出来的一些统计量作为纹理识别的特征量。本文采用均值、标准差和对比度三种纹理特征统计量作为参数, 其计算公式为:

N_{\text {Mean }}=\sum\nolimits_i \sum\nolimits_j p(i, j) \times i, (2)
N_{\mathrm{Std}}=\sqrt{\sum\nolimits_i \sum\nolimits_j p(i, j) \times\left(i-N_{\text {Mean }}\right)^2}, (3)
N_{\text {Contrast }}=\sum\nolimits_i \sum\nolimits_j p(i, j) \times(i-j)^2, (4)

其中 p(i, j) 表示灰度共生矩阵中坐标为 (i, j) 的像素值大小。

2 实验与分析 2.1 实验数据

本实验采用2景海丝一号(HISEA-1)数据与1景Radarsat-2数据, 其中, 1景HISEA-1数据用于模型训练, 另1景HISEA-1数据与Radarsat-2数据用于模型测试。

2.1.1 HISEA-1数据

2020年12月22日, HISEA-1卫星在文昌卫星发射中心升空入轨, 这是我国首颗C波段商业合成孔径雷达遥感卫星。HISEA-1对标国际先进SAR卫星指标, 采用有源相控阵天线, 在整星质量185 kg的情况下实现了m级空间分辨率和多种SAR成像模式, 在宽幅扫面模式下幅宽可达100 km[20]

本文采用的两景HISEA-1SAR数据记录了2021年9月5日叙利亚储油罐溢油事件中溢油的具体位置, 详细信息如表 1所示。

表 1 HISEA-1数据信息 Tab. 1 Information of HISEA-1
图像1 图像2
时间(UTC) 2021-09-05, 09: 51: 43 2021-09-05, 09: 51: 46
成像模式 条带模式 条带模式
分辨率/m 3 3
极化方式 VV VV
尺寸 5 882 × 7 319 5 882 × 9 318

两景图像如图 4所示, (a)为图像1包含了船只、溢油和陆地, (b)的图像2中包含了船只与溢油。因本文对溢油进行检测, 故将溢油以外的其他目标都归类为非溢油。

图 4 HISEA-1图像 Fig. 4 Image of HISEA-1

结合同时期多源遥感验证、相关报道与先验知识综合判断, 对两幅图像溢油区域进行手动标记。标记图像如图 5所示, 其中黑色表示非溢油像素, 赋值为0, 白色表示溢油像素, 赋值为1。

图 5 标签图 Fig. 5 Image of label

针对图像1与图像2分别统计溢油像素数与非溢油像素数, 统计结果如表 2所示。图像1与图像2的纹理特征提取结果如图 6图 7所示。

表 2 图像1和图像2中溢油与非溢油像素数 Tab. 2 Number of oil spill and background pixels in image 1 and image 2
像素数 图像1 图像2
溢油 3 885 470 9 239 134
非溢油 39 164 888 45 275 662

图 6 图像1纹理特征 Fig. 6 Texture feature of image1

图 7 图像2纹理特征 Fig. 7 Texture feature of image 2

将图像1的SAR灰度图像与纹理特征分别裁剪为256×256像素大小, 制作灰度图、纹理均值图、纹理标准差图、纹理对比度图等4类样本各644张, 其中每类样本数量的80%作为训练集, 剩余20%作为验证集。

2.1.2 Radarsat-2数据

Radarsat-2数据拍摄了2010年5月8日的墨西哥湾溢油事件, 数据详细信息如表 3图 8所示。

表 3 墨西哥湾Radarsat-2数据详细信息 Tab. 3 Radarsat-2 data
时间(UTC) 数据类型 极化方式 聚束方式 分辨率 尺寸
Radarsat-2数据 2010-05-08, 12: 01: 25 SLC HH, VV, HV, VH FQ23 4.73 m × 4.95 m 6 281 × 3 920

图 8 Radarsat-2数据图像 Fig. 8 Image of Radarsat-2

通过统计目视解译结果, 溢油像素数为634 916, 非溢油像素数为24 621 520, 纹理特征提取结果如图 9所示。

图 9 Radarsat-2图像纹理特征 Fig. 9 Texture feature of Radarsat-2
2.2 实验

本实验利用HISEA-1图像1构建的训练集和验证集进行模型训练和验证, 另外还设计了两组测试实验: 第1组采用HISEA-1图像2数据; 第2组采用Radarsat-2数据。两组测试实验均与U-NET、Attention U-NET和FCN等语义分割模型进行对比, 采用溢油检测准确率(Oil Accuracy, 记为Aoil)、交并比(Intersection Over Union, 记为Aiou)和相似度量函数(Dice Coefficient, 记为Adice)作为精度评定指标。溢油检测准确率表示正确检测为溢油的像素个数占总溢油像素个数的比例; 交并比是语义分割中常用的精度评定指标, 表示像素真实值与预测值的交集与像素真实值与预测值的并集之比, 值越接近1表示分割效果越好; 相似度量函数是计算真实值与预测值的相似度, 值越接近1表示效果越好。计算公式如下:

A_{\mathrm{oil}}=\frac{N_{\mathrm{TP}}}{N_{\mathrm{TP}}+N_{\mathrm{FN}}} \text {, } (5)
A_{\text {iou }}=\frac{N_{\mathrm{p}} \cap N_{\mathrm{t}}}{N_{\mathrm{p}} \cup N_{\mathrm{t}}}, (6)
A_{\mathrm{dice}}=\frac{2 \times A_{\mathrm{IOU}}}{1+A_{\mathrm{IOU}}} , (7)

其中, {N_\mathrm{TP}} 表示正确检测为溢油的像素数, {N_\mathrm{FN}} 表示溢油像素被检测为非溢油像素的数量。 {N_\mathrm{p}} 是数据集的预测标签, {N_\mathrm{t}} 是数据集的真标签, \cap 表示两个集合的交集, \cup 表示两个集合的并集。

2.2.1 模型训练与验证

在深度学习网络中, 需要基于经验调试来获得超参数, 包括学习率、每次迭代中提取的批量大小、梯度阈值和其他超参数。学习率是控制模型收敛速度的超参数。学习率越低, 损失函数的变化率越慢, 收敛时间越慢, 但它可以确保局部达到最佳精度。相反, 如果学习率太高, 则会错过局部极小值, 并且梯度阈值通常被设置为启用梯度阈值, 并抑制由非常高的学习速率引起的网络梯度爆炸[21-23]。模型初始学习率均设置为0.001, 每次迭代中提取的批量大小为8, 每10轮进行一次验证, 总共训练200轮。

在训练样本中非溢油像素与溢油像素非常不平衡, 对实验结果会产生影响。本文采用类权重平衡根据像素数量赋予非溢油像素与溢油像素不同的训练权重, 以改善类别不平衡带来的训练问题[21]

统计的像素数量矩阵如下式所示:

\boldsymbol{X}=\left[\begin{array}{ll} B_P & B_I \\ O_P & O_I \end{array}\right], (8)

其中, {B_P} 表示非溢油像素个数, {B_I} 表示存在非溢油类别的图片的总像素数, {O_P} 表示溢油像素个数, {O_I} 表示存在溢油类别的图片的总像素数。

利用统计的像素数量矩阵 \boldsymbol{X} 计算类权重 \boldsymbol{CLW} , 公式如下:

\boldsymbol{C L} \boldsymbol{W}=\left[\frac{B_P / B_I+O_P / O_I}{2 \times\left(B_P / B_I\right)}, \frac{B_P / B_I+O_P / O_I}{2 \times\left(O_P / O_I\right)}\right] . (9)

在本实验中非溢油像素与溢油像素的训练权重分别设置为0.800 2, 1.332 7。

采用上述参数对各个模型进行模型训练, 在模型训练期间, 采用验证集对网络模型进行精度验证, 验证精度如表 4所示, AW-net在验证集上获得了更高的检测准确率, 为96.25%, 接下来采用训练好的模型进行模型测试。

表 4 模型验证溢油准确率(单位: %) Tab. 4 Verification of Aoil of the model (%)
AW-net U-NET Attention U-NET FCN
Aoil 96.25 93.86 93.94 93.93
2.2.2 模型测试

为证明AW-net在溢油检测中的有效性, 利用HISEA-1图像2数据和Radarsat-2的灰度图像及其纹理特征作为输入对本文模型进行测试, 利用滑窗法遍历整幅灰度图像与纹理特征输入到训练好的AW-net、U-NET、Attention U-NET和FCN模型中, 最后将输出的检测结果按照原始位置进行复原, 得到整个图像的溢油检测结果。AW-net中是将纹理特征与灰度图像分别输入到其中的纹理编码器与灰度图像编码器中, 而U-NET、Attention U-NET和FCN是将纹理特征与灰度图像进行通道叠加再输入到模型当中, AW-net与U-NET网络输入示意图如图 10所示, FCN和Attention U-NET输入方式与U-NET相同。

图 10 输入示意图 Fig. 10 Image input diagram

(1) HISEA-1图像2数据测试

将海丝一号数据输入训练好的网络中进行测试, 测试结果如图 11所示, 从检测图像中可以看出, 四种方法在右上角的绿框内都会出现不同程度的误检情况, 究其原因可能是因为在纹理特征中右上角呈现出与溢油区域类似的纹理标准差, 故出现误检。而本文方法对纹理特征信息更加敏感, 所以在右上角区域的误检相对最严重。这几种方法对于红框与蓝框内的薄油膜部分都存在漏检情况, 因为薄油膜对海面的毛细波和短重力波抑制能力较差, SAR影像中薄油膜区域与海水表现较为接近, 故薄油膜容易产生漏检。本文模型能够更好地结合纹理特征对薄油膜部分进行检测, 对薄油膜区域的检测效果最好, 整体检测效果也最优。

图 11 图像2检测结果图 Fig. 11 Detection results of image 2

定量检测结果如表 5所示, 从表中可以看到这四个模型中AW-net获得了最高的Aoil为86.71%, Aiou同样达到最高为0.7913, Adice为0.883 5, 相较于U-NET、Attention U-NET和FCN网络Aoil分别提高了5.1%、4.61%和6.24%, Aiou分别提高了0.0127、0.003 2和0.014 5, Adice分别提高了0.008 0、0.002 0和0.009 1。由此可以看出, AW-net在各项精度评价指标中都要优于其余几种方法, 表明了本文所提模型在溢油检测中的有效性。

表 5 图像2检测结果 Tab. 5 Detection results of image 2
Aoil Aiou Adice
AW-net 86.71% 0.791 3 0.883 5
U-NET 81.61% 0.778 6 0.875 5
Attention U-NET 80.47% 0.776 8 0.874 4
FCN 82.10% 0.788 1 0.881 5

(2) Radarsat-2数据测试

为了进一步测试所提溢油检测模型的有效性与鲁棒性, 基于2010年5月8日在墨西哥湾溢油事件中采集的Radarsat-2数据进行了一组实验, 因为HISEA-1数据为VV单极化数据, 故在这组实验中采用Radarsat-2的VV极化数据, 进行Lee精细滤波后进行实验。利用前文中训练好的AW-net、U-NET、Attention U-NET和FCN模型对该数据进行检测, 溢油检测结果图如图 12所示。

图 12 Radarsat-2检测结果图 Fig. 12 Radarsat-2 detection results

图 12所示, 这几种方法在边缘部分均存在检测效果不佳的问题, 例如红框内的线状区域, 检测出来的结果相较于真值更细小, 相对来说AW-NET检测效果更佳, 对于线状区域的检测结果更接近真值。定量检测结果如表 6所示。

表 6 Radarsat-2检测结果 Tab. 6 Detection results of Radarsat-2
Aoil Aiou Adice
AW-net 89.33% 0.8572 0.9231
U-NET 85.44% 0.837 1 0.911 3
Attention U-NET 88.16% 0.847 8 0.917 6
FCN 84.05% 0.824 8 0.903 9

表 6所示, AW-net在墨西哥湾溢油数据中同样获得了最好的检测结果, 相较于U-NET、Attention U-NET和FCN在Aoil上分别提高了3.89%、5.28%和1.17%; Aiou分别提高了0.020 1、0.032 4和0.009 4, Adice分别提高了0.011 8, 0.019 2和0.005 5, 证明了AW-net具有较强的鲁棒性。

3 结论与展望

本文模型将U-NET中传统的单输入编码器替换为双分支编码器, 向双编码器中分别输入纹理特征与SAR灰度图像, 以分别提取更精细的纹理信息与灰度信息, 并采用注意力门对提取的信息进行融合。实验结果表明, 相较于U-NET、Attention U-NET和FCN, 本文模型溢油检测准确率更高, 证明了本文模型中的双分支编码器既能够更好地提取灰度图像与纹理图像中的特征信息, 且具备多特征融合能力, 且针对不同的数据集依旧能获得最好的检测结果, 具有较强的鲁棒性。除此之外, 利用HISEA-1数据训练的模型运用到Radarsat-2 VV极化数据中依旧能够获得较好的溢油检测准确率, 也证明HISEA-1数据在海上溢油检测中的应用潜力。在未来, 还将从以下两个方面进行研究: (1)本文的研究数据为单极化数据, 只用到了纹理特征与灰度图像进行实验, 在未来考虑将该模型运用到全极化数据中心, 结合全极化特征进行溢油检测实验。(2)本文构建的样本集中仅包含溢油与海水两类样本, 所训练的模型对于疑似溢油区分能力不足, 在未来考虑构建包含疑似溢油的样本库, 以提升模型区分溢油与疑似溢油的能力。(3)在本文模型的双分支编码器中, 两个分支的结构相同, 仅网络参数不同, 今后将继续探究采用不同结构的分支分别对不同类型的特征进行特定的信息提取, 以获得更好的溢油检测效果。

参考文献
[1]
RONNEBERGER O, LIU K, RATH M, et al. Erratum: ViBE-Z: a framework for 3D virtual colocalization analysis in zebrafish larval brains[J]. Nature Methods: Techniques for Life Scientists and Chemists, 2012, 9(10): 735-742.
[2]
ALOM M Z, HASAN M, YAKOPCIC C, et al. Recurrent residual convolutional neural network based on U-Net (R2U-Net) for medical image segmentation[J]. arXiv Preprint arXiv, 2018: 1802.06955.
[3]
CAO K L, ZHANG X L. An improved res-unet model for tree species classification using airborne high-resolution images[J]. Remote Sensing, 2020, 12(7): 1128. DOI:10.3390/rs12071128
[4]
ZHAO P, ZHANG J D, FANG W J, et al. SCAU-net: spatial-channel attention U-net for gland segmentation[J]. Frontiers in Bioengineering and Biotechnology, 2020, 8: 670. DOI:10.3389/fbioe.2020.00670
[5]
OKTAY O, SCHLEMPER J, FOLGOC L L, et al. Attention u-net: Learning where to look for the pancreas[J]. arXiv preprint arXiv, 2018: 1804.03999.
[6]
SKRUNES S, BREKKE C, ELTOFT T. Characterization of marine surface slicks by Radarsat-2 multipolarization features[J]. IEEE Transactions on Geoscience and Remote Sensing, 2012, 52: 5302-5319.
[7]
CONCEIÇÃO M R A, DE MENDONÇA L F F, LENTINI C A D, et al. SAR oil Spill detection system through random forest classifiers[J]. Remote Sensing, 2021, 13(11): 2044. DOI:10.3390/rs13112044
[8]
SARANYA G, JAYA V, BHUVANA L, et al. Conjoined twins with thoracoabdominopagus anomaly in the third trimester[J]. Journal of South Asian Federation of Obstetrics and Gynaecology, 2014, 6(3): 191-194. DOI:10.5005/jp-journals-10006-1306
[9]
PEI M C, LI H R, YU H. A novel three-stage feature fusion methodology and its application in degradation state identification for hydraulic pumps[J]. Measurement Science Review, 2021, 21(5): 123-135. DOI:10.2478/msr-2021-0018
[10]
VISALAKSHI S, RADHA V. A hybrid filter and wrapper feature selection approach for detecting contamination in drinking water management system[J]. Journal of Engineering Science and Technology, 2017, 12(7): 1819-1832.
[11]
戴渝心, 马毅, 姜宗辰, 等. 基于多核SVM决策融合模型的海面原油多光谱遥感检测研究[J]. 海洋科学, 2022, 46(7): 11-23.
DAI Yuxin, MA Yi, JIANG Zongchen, et al. Multi-spectral remote sensing detection of marine oil spill based on multi-kernel SVM decision fusion model[J]. Marine Sciences, 2022, 46(7): 11-23.
[12]
王宏威, 李国和. 基于属性相似度的连续型特征选择方法[J]. 渤海大学学报(自然科学版), 2014, 35(4): 350-355.
WANG Hongwei, LI Guohe. A methodof feature selection for continuous features base on similarity degrees of interval numbers[J]. Journal of Bohai University: Natural Science Edition, 2014, 35(4): 350-355. DOI:10.3969/j.issn.1673-0569.2014.04.009
[13]
TOPOUZELIS K, PSYLLOS A. Oil spill feature selection and classification using decision tree forest on SAR image data[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2012, 68: 135-143. DOI:10.1016/j.isprsjprs.2012.01.005
[14]
STINE S, CAMILLA B, TORBJORN E. Characterization of Marine Surface Slicks by Radarsat-2 Multipolarization Features.[J]. IEEE Transactions on Geoscience and Remote Sensing, 2014, 52(9): 5302-5319. DOI:10.1109/TGRS.2013.2287916
[15]
LIU P, WEI Y M, WANG Q J, et al. Research on post-earthquake landslide extraction algorithm based on improved U-Net model[J]. Remote Sensing, 2020, 12(5): 894. DOI:10.3390/rs12050894
[16]
任国贞, 江涛. 基于灰度共生矩阵的纹理提取方法研究[J]. 计算机应用与软件, 2014, 31(11): 190-192, 325.
REN Guozhen, JIANG Tao. Study on GLCM-based texture extraction methods[J]. Computer Applications and Software, 2014, 31(11): 190-192, 325.
[17]
焦蓬蓬, 郭依正, 刘丽娟, 等. 灰度共生矩阵纹理特征提取的Matlab实现[J]. 计算机技术与发展, 2012, 22(11): 169-171, 175.
JIAO Pengpeng, GUO Yizheng, LIU Lijuan, et al. lmplementation of gray level co-occurrence matrixtexture feature extraction using Matlab[J]. Computer Technology and Development, 2012, 22(11): 169-171, 175.
[18]
田艳琴, 郭平, 卢汉清. 基于灰度共生矩阵的多波段遥感图像纹理特征的提取[J]. 计算机科学, 2004, 31(12): 162-163, 195.
TIAN Yanqin, GUO Ping, LU Hanqing. Texture feature extraction of multiband remote sensing image based on gray level co-occurrence matrix[J]. Computer Science, 2004, 31(12): 162-163, 195. DOI:10.3969/j.issn.1002-137X.2004.12.047
[19]
SINGHA S, BELLERBY T J, Trieschmann O. Detection and classification of oil spill and look-alike spots from SAR imagery using an artificial neural network[C]//2012 IEEE International Geoscience and Remote Sensing Symposium. IEEE, 2012: 5630-5633.
[20]
李泉锟, 高海英, 赵一迪, 等. 海丝一号合成孔径雷达卫星及应用概况[J]. 卫星应用, 2022(7): 31-35.
LI Quankun, GAO Haiying, ZHAO Yidi, et al. Synthetic aperture radar (SAR) satellite Hisea 1 and its application[J]. Satellite Application, 2022(7): 31-35.
[21]
GUPTA A, TATBUL N, MARCUS R, et al. Class-weighted evaluation metrics for imbalanced data classification[J]. arXiv preprint arXiv, 2020: 2010.05995.
[22]
LIU X Y, WU J X, ZHOU Z H. Exploratory undersampling for class-imbalance learning[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 2008, 39(2): 539-550.
[23]
YAN C, FAN X S, FAN J L, et al. Improved U-Net remote sensing classification algorithm based on multi-feature fusion perception[J]. Remote Sensing, 2022, 14(5): 1118.
基于U-NET的双分支海上SAR溢油检测模型
盛辉, 曹文俊, 刘善伟, 王大伟, 杨俊芳, 张杰