Advertisement

论文阅读:Edge Detection of Motion-Blurred Images Aided by Inertial Sensors

阅读量:

论文阅读:Edge Detection of Motion-Blurred Images Aided by Inertial Sensors

原文地址:Edge Detection of Motion-Blurred Images Aided by Inertial Sensors

摘要

边缘检测应用于运动模糊图像时,边缘检测的准确性会显著降低。在本文中,作者提出了一种利用惯性传感器(如陀螺仪和加速度计 来辅助去模糊的方法。我们知道,惯性传感器作为物理仪器,在测量时会有不可避免的误差,如零偏误差、标度因子误差、温度漂移、对准误差、非线性误差等。为了解决惯性传感器的测量误差,作者将其转换为模糊核误差,并应用基于总最小二乘法 (TLS) 的迭代优化方案来处理涉及模糊核误差的图像去模糊问题,其相关先验由神经网络学习。作者将 Canny 边缘检测算法应用于迭代过程的每个中间输出,并使用所有边缘检测结果来计算网络的总损失函数,从而在边缘检测任务和去模糊迭代过程之间实现更紧密的耦合。基于BSDS500边缘检测数据集和独立的惯性传感器数据集,作者构建了一个用于训练和评估网络的合成数据集。合成数据集的结果表明,与现有的代表性去模糊方法相比,该方法在运动模糊图像的边缘检测中表现出更高的准确性和鲁棒性。

注:模糊核是一个数学模型,通常用于描述图像在拍摄或采集过程中由于运动、失焦等原因造成的模糊。理想情况下,模糊核应该完全反映图像模糊的实际情况,以便在去模糊过程中准确恢复图像细节。然而,由于多种因素,模糊核往往带有误差

1. 引言

运动模糊产生的原因是:当相机和物体在曝光时间内存在相对运动时,捕获的图像将出现运动模糊。由于伪影的存在,直接对运动模糊图像应用边缘检测会导致准确性显著降低,从而影响后续图像处理任务。目前,对运动模糊图像执行边缘检测面临两个主要挑战:

运动模糊图像的边缘检测需要一种有效的去模糊方法。在以前的工作中,大部分工作都集中在利用图像本身的内容来消除运动模糊 ,这是一个病态的问题,因为潜在图像和模糊内核仍然是未知的。惯性传感器可以在曝光期间提供有关成像系统的其他运动信息。利用惯性传感器来辅助去模糊可以有效减少去模糊算法的病态 。然而,由于时间同步误差和噪声,无法从传感器数据中获得准确的运动信息,因此由惯性传感器数据辅助的去模糊方法通常缺乏鲁棒性;

潜在图像:原文是“latent images”,我的理解为就是指图像本身,因为在实际的去噪中,提供的图片往往是未知的。

去除运动模糊通常是为提升图片质量设计的,而不是为了更好的边缘感知设计的。近期研究表明,与具有较低峰值信噪比 (PSNR) 的去模糊结果相比,具有较高 PSNR 的去模糊结果并不总是能实现更好的边缘检测性能。将去模糊算法与边缘检测任务耦合,并确保去模糊方法能够有效提高边缘检测精度是另一个需要解决的关键问题。

为解决上述问题,作者做了如下工作:

  • 将有误差的传感器数据转化为有误差的模糊核,作者采用基于 TLS (最小二乘法总计)的迭代优化方案来处理涉及模糊核误差的图像去模糊问题,其相关先验由两种类型的神经网络学习。在训练过程中包含带有传感器数据错误信息的模糊内核使最终的去模糊方法非常稳健。
  • Canny边缘检测算法被纳入去模糊过程中,以计算最终的损失函数。通过将边缘检测任务和去模糊迭代过程更紧密地耦合,确保边缘检测任务通过图像去模糊过程获得更高的准确率。
  • 将BSDS500边缘检测数据集和独立的惯性传感器数据集相结合,创建了一个用于运动模糊图像边缘检测的合成数据集。合成数据集的结果证明了所提出的方法的有效性和稳健性。

2. 该领域其他人的相关工作

  • Joshi 等人构建了一台配备陀螺仪和加速度计的单镜头反光相机,用于估计相机在曝光过程中的运动,传感器数据在自然图像的引导下事先进行了校正。( Joshi, N.; Kang, S.B.; Zitnick, C.L.; Szeliski, R. Image deblurring using inertial measurement sensors. ACM Trans. Graph. 2010, 29, 1–9.)
  • Park 和 Levoy 采用了类似的陀螺仪校准方法来解决多图像去模糊问题(Hee Park, S.; Levoy, M. Gyro-based multi-image deconvolution for removing handshake blur. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Columbus, OH, USA, 23–28 June 2014; pp. 3366–3373)
  • Šindeláˇr 和 Šroubek 在移动设备上开发了一种基于空间不变模糊近似的实时去模糊方法(Šindelárˇ, O.; Šroubek, F. Image deblurring in smartphone devices using built-in inertial measurement sensors. J. Electron. Imaging 2013, 22, 011003.)
  • Zhang 和 Hirakawa 将惯性测量和基于图像的信息相结合,以消除模糊(Zhang, Y.; Hirakawa, K. Combining inertial measurements with blind image deblurring using distance transform. IEEE Trans. Comput. Imaging 2016, 2, 281–293.)

以上这些人的研究都是假设他们记录的传感器数据是可靠的,或者是放宽了这个假设。然而,当使用惯性传感器时,存在更具挑战性的问题,这些传感器不能提供高质量的传感器数据来有效地澄清图像。

  • Mustaniemi 等人首次将陀螺仪数据应用于基于深度学习网络的单张图像去模糊 。在他们的工作中,在网络训练期间考虑了传感器数据误差。然而,他们只使用传感器数据将模糊内核的形状简化为一条直线,这会导致物理阶段的部分信息丢失,从而影响卷积神经网络 (CNN) 的最终性能。(Mustaniemi, J.; Kannala, J.; Särkkä, S.; Matas, J.; Heikkila, J. Gyroscope-aided motion deblurring with deep networks. In Proceedings of the 2019 IEEE Winter Conference on Applications of Computer Vision (WACV), Waikoloa, HI, USA, 7–11 January 2019; IEEE: Piscataway, NJ, USA, 2019; pp. 1914–1922.)
  • Nan 和 Ji 提出了一种基于 TLS 的迭代优化方案,用于处理图像去模糊中的内核误差问题 ,即使模糊内核的估计存在误差,也可以获得良好的去模糊结果。此框架特别适用于处理由传感器数据错误引起的模糊内核错误。(Nan, Y.; Ji, H. Deep learning for handling kernel/model uncertainty in image deconvolution. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, WA, USA, 13–19 June 2020; pp. 2388–2397.)
  • 在将去模糊算法与边缘检测任务耦合方面,Adler 等人 的工作中提出了任务适应图像重建的广泛理论概述。他们的研究表明,与顺序和端到端方法相比,联合重建-分割方法实现了更准确的分割。(Adler, J.; Lunz, S.; Verdier, O.; Schönlieb, C.-B.; Öktem, O. Task adapted reconstruction for inverse problems. Inverse Probl. 2022, 38, 075006. )
  • Yang 等人提出了一种新的联合图像恢复和边缘检测的合作博弈框架 。它使用迭代方法来解决这两个任务,迭代过程中任务之间的交互促进导致了图像恢复和边缘检测性能的改进。(Yang, C.; Wang, W.; Feng, X. Joint image restoration and edge detection in cooperative game formulation. Signal Process. 2022, 191, 108363)

3. 本文提出的方法

3.1初始核估计

回想一下图像模糊过程的空间不变卷积模型:g = f ∗ k + n,其中 g 和 f 表示运动模糊图像及其潜在的清晰图像,* 是卷积算子,k 是模糊核,噪声项 n 通常表示为附加的白色高斯噪声。

CNN的卷积不变性:卷积操作本身具备平移不变性,当输入图像在空间中发生平移时,卷积网络能够识别出相同的特征,而不受平移的影响。这是因为卷积核在图像的每个位置上都执行相同的操作,不依赖绝对位置。有些时候还会用到旋转卷积或者尺度空间变换等技术实现更广泛的空间不变性,使模型不仅对平移,而且对旋转和尺度变化也具有不变性。作者提出这个旨在证明下面将多个不同位置的清晰图像进行叠加生成模糊图像的过程并没有改变图像特征信息。是可行的。

为了整合记录相机运动信息的惯性传感器数据,将运动模糊图像表述为曝光间隔期间一系列投影运动下多个清晰图像的总和:

g(x)=\frac{1}{N_p} \sum_{t=1}^{N_{p}} f\left(H_{t} x\right)+n\tag{1}

其中x \in \mathbb{R}^{3 \times 1}表示齐次坐标中的像素位置,H_t表示单应矩阵,n 表示噪声项,N_p表示曝光时间内所有相机姿势的数量。考虑到将 t = 0 处点的初始投影映射到任何其他时间 t 的平面同向性,对于特定深度d,单应矩阵H_t 可以表征为

H_t=K(R_t+\frac{T_tN^T}d)K^{-1}\tag{2}

R_t 是旋转变换矩阵,T_t 是平移向量,N_t 是与图像平面正交的单位向量。相机内参矩阵 K 可以用焦距 f 和相机光学中心 (O_x, O_y) 来表征:

K=\begin{bmatrix}f&0&O_x\\ 0&f&O_y\\ 0&0&1\end{bmatrix}\tag{3}

投影运动 :“投影运动”(projective motions)是指相机在曝光期间由于运动而导致的视角变化。这些运动导致了物体在相机平面上的投影位置、大小和角度发生变化。这种变化是投影几何的一个典型表现,通常用投影矩阵来描述。文中为了建模运动模糊,选择将不同瞬间拍摄的多个清晰图像进行叠加,每个清晰图像对应相机在曝光时间内某一时刻的位置。每个时刻的视角变化被描述为一个“投影运动”,即相机对拍摄物体的投影矩阵变化。

**单应性矩阵:**Homography matrix,用于描述两个平面之间的透视变换关系。它是一个3×3 的矩阵,可以将一个平面上的点转换到另一个平面上,同时保持透视投影的特性。

**内参矩阵:**Intrinsic matrix,用于描述相机的内部参数。它包含了与相机的光学特性和传感器几何结构相关的信息,使得能够将三维空间中的点投影到二维图像平面上。

与运动相关的参数,即旋转变换矩阵R_t和平移向量 T_t,可以分别根据陀螺仪和加速度计的测量值计算得出。相机运动引起的图像模糊过程如图所示:
相机模糊

假设旋转中心位于相机的光学中心,则旋转变换矩阵可以近似为:

R_t=\begin{bmatrix}1&-d\theta_t^z&d\theta_t^y\\ d\theta_t^z&1&-d\theta_t^x\\ -d\theta_t^y&-d\theta_t^x&1\end{bmatrix}R_{t-1}\tag{4}

当角度旋转较小时采用正弦近似。给定陀螺仪在时间 t 的测量\omega_t=\begin{bmatrix}\omega_{tx},\omega_{ty},\omega_{tz}\end{bmatrix}^T和采样间隔\Delta t.\left[d\theta_t^x,d\theta_t^y,d\theta_t^z\right]^T=\omega_t\times\Delta t.由于只考虑了相对旋转,因此初始旋转变换矩阵 R0 = 恒等式。

至于平移向量 T_t,由于目前有移动设备可以利用来自其他传感器的数据来消除重力的影响,因此我们可以在不减去重力加速度的情况下,对加速度计测量a_t=\begin{bmatrix}a_{tx},a_{ty},a_{tz}\end{bmatrix}^T进行二重积分。

在计算了任何给定时刻 t 的单调矩阵 H_t后,我们最终可以得到曝光时间内的投影轨迹。此外,我们使用中心像素点的投影轨迹来近似整个图像的模糊内核。具体来说,我们将除中心坐标外的所有像素值都设置为 0,其中像素值设置为 255,以获得图像 f^c(x)。然后,我们将白噪声设置为 0,并使用f^c(x) 作为方程 (1) 中的输入来计算图像g^c(x),它表示初始模糊内核 k。

由于受时间同步误差和噪声的影响,直接使用传感器数据计算模糊内核会导致估计的模糊内核与精确的模糊内核之间存在差异。因此,问题转向如何使用有错误的模糊内核进行图像去模糊。

3.2基于TLS的模糊盒误差迭代优化方案

在考虑有误差的模糊内核时,图像模糊模型如下:

g=(\hat{K}-\Delta K)f+n=\hat{K}f-\Delta Kf+n\tag{5}

其中 \hat{\mathbf{K}} 是卷积运算符的矩阵形式。

TLS 估计器通过解决约束优化问题找到 (5) 的解。

\min_{\Delta K,n,f}\|\Delta K\|_F^2+\|n\|_2^2\quad s.t.\left(\hat{K}f-\Delta Kf=g-n\right)\tag{6}

通过引入表示核误差项 \Delta Kf 的辅助变量 u,我们将问题 (6) 重新表述为优化问题,如下所示:

\min_{f,u}\|\Delta K\|_F^2+\|g-\hat{k}*f-u\|_2^2+\lambda\|u-\Delta Kf\|^2+\Phi(f)\tag{7}

其中 Φ(f) 表示相对于某个图像先验的正则化项,该项通常施加在高频图像成分上,因为它们是模糊过程中丢失的主要部分。通过引入辅助变量 z 并应用半二次分割,问题 (7) 可以重新表述为:

\min_{f,u,z}\|g-\hat{k}*f-u\|_2^2+\varphi(u|f)+\|diag(\lambda)(\Gamma f-z)\|_2^2+\rho(z)\tag{8}

其中\varphi(u|f)=\min_{\Delta K}\|\Delta K\|_F^2+\lambda\|u-\Delta Kf\|^2是是与内核误差引起的校正项的先验施加相关的正则化项,Γ表示高通滤波器。可以采用交替迭代方案来解决优化问题 (7):

f^{(t)}=argmin\|g-\hat{k}*f-u^{(t-1)}\|_2^2+\lambda\|diag(\lambda)\left(\Gamma f-z^{(t-1)}\right)\|_2^2\tag{9}

z^{(t)}=argmin\mu\|\Gamma f^{(t)}-z\|_2^2+\rho(z)\\ \tag{10}

u^{(t)}=argmin\|g-\hat{k}*f^{(t)}-u\|_2^2+\varphi(u|f^{(t)})\tag{11}

第一步 (9) 是一个反演过程,给定上次迭代的 u(t-1)z(t-1),可以使用离散傅里叶变换来解决。

第二步 (10) 是去噪过程,它消除了高通图像通道中存在的潜在伪影。基于 CNN 的去噪神经网络称为 DnCNN ,可用于去除 f(t) 中的噪声。

第三步(11)是一个修正过程,旨在纠正与核(kernel)误差相关的项,由 Nan 和 Ji 提出的神经网络双径 U-net (Nan, Y.; Ji, H. Deep learning for handling kernel/model uncertainty in image deconvolution. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, WA, USA, 13–19 June 2020; pp. 2388–2397.)可以用作一种工具,通过将 f(t) 的下采样代码与残差g-\hat{k}*f^{(t)}相结合来估计校正项 u(t)。

通过采用上述框架,我们获得了一种由惯性传感器辅助的有效去模糊方法,可以处理由传感器数据错误引起的模糊内核错误。上述算法可以由下表表示:

算法1:由惯性传感器辅助的去模糊
输入:陀螺仪数据 {w}_i,加速度计数据 {a}_i,模糊图像 g
输出:去模糊图像 f

| 步骤:
(1) 对{a}_i 执行二重积分,获取 {T}_t
(2) 使用公式(4)获取 {R}_t
(3)使用 公式(2)、(3) 获取 {H}_t
(4) 将中心像素设置为 255,所有其他像素设置为 0,得到图像f^c
(5) 应用 公式(1) 获取模糊内核 k,使用所有获得的 和噪声设置{H}_t为 0 的 图像 f^c
(6) 初始化 z^0u^0 为 0
(7) 使用离散傅里叶变换求解 (8) 模糊核 k 获得 f^0
(8)for iter = 1 to N do
使用 Dn-CNN 和 f^{iter−1} 获取z^{iter}
使用 DP-Unet 和 Blur 内核 k 和 f^{iter−1} 获取 u^{iter}
使用离散傅里叶变换求解 (8) 和 Blur 内核 k、z^{iter}u^{iter}获得 fiter
end
(9)f^N是最终输出 f |

3.3 添加了 Canny Edge 检测算法的整体网络结构

Nan 和 Ji在文章《Deep learning for handling kernel/model uncertainty in image deconvolution 》提出的框架中的损失函数定义为:

L=\frac1J\sum_{j=0}^J\left(\left\|f_j^{(T,+,1)}-f_j\right\|_2^2+\sum_{i=2}^T\mu_i\left\|f_j^{(i)}-f_j\right\|_2^2\right)\tag{12}

其中\left\{f^{(1)},f^{(2)},\ldots,f^{(T+1)}\right\}是是优化算法中对应于 T + 1 次迭代的去卷积图像序列。为确保网络的优化目标是提高边缘检测的准确性,作者在迭代过程的每个步骤中,对方程(11)的输出执行Canny边缘检测,并使用边缘检测结果计算边缘交叉熵函数

l_{edge}^{(i)}=-\frac1J\sum_{j=0}^J\left(e_j^{(i)}log(\hat{e_j^{(i)}})+\left(1-e_j^{(i)}\right)log(1-e_j^{(i)})\right)\tag{13}

其中 e^{(i)}_j f^{(i)} 的边缘检测结果,\hat{e_j^{(i)}}表示真实边缘。整体损失函数重新定义为:

L=l_{edge}^{(T+1)}+\sum_{i=2}^T\mu_il_{edge}^{(i)}\tag{14}

其中权重\{\mu_i\}_{i=1}^{T-1}设为0.8。总的来说,上述的去模糊方法可以用下图表示:
在这里插入图片描述

“将边缘检测纳入去模糊过程并使用边缘损失函数调整网络参数,可以促使模型的输出接近真实边缘,如方程 (14) 中的第一项所指定。这可以使用当前先进的去模糊方法来实现。但是,我们的方法不同,因为我们使用基于迭代优化的去模糊算法,这使我们能够获得中间边缘检测结果。这可确保中间结果不会离真实边缘太远,如方程 (14) 中的第二项所指定。事实上,我们的方法包含了更丰富的边缘信息,并有望在运动模糊图像的边缘检测任务中表现得更好。”

3.4 包含惯性传感器数据的运动模糊图像的合成数据集

作者的另外一个重要贡献是,提出了一种合成综合数据集的方法,其中包括在每个模糊图像的曝光时间内捕获的地面实况边缘、模糊图像和惯性传感器数据。首先是对BSDS500数据集的处理,原数据集已经划分好训练集、测试集、验证集,对于每张图像以及对应的真实边缘图像,作者将它们裁剪为 256 × 256 的patch。在像素值为 321 的方向上,第一次裁剪使用 1 像素的步幅,随后使用 32 像素的步幅,总共产生 4 个patch。在像素值为 481 的方向中,前三个裁剪使用 1 个像素的步幅,第四个裁剪使用 2 个像素的步幅,然后使用 4 个像素的步幅,总共产生 60 个patch。这样就获得了 200 × 4 × 60 = 48,000 张清晰图像及其对应的真实边缘标签。这样做的目的是使通过裁剪获得的图像块数量能够适应更广泛的batchsize范围。

惯性传感器数据,特别是每个轴的角速度和加速度,使用均值为 0 的高斯分布进行建模。每个轴角速度的标准偏差为\sigma_{\omega x}=\sigma_{\omega y}=1\times10^{-6}\mathrm{~rad/s}\sigma_{\omega z} = 0.1 \mathrm{rad/s}。各轴加速度的标准差为\sigma_{ax} = \sigma_{ay} = 1 \times 10^{-3} \mathrm{m}^2/\mathrm{s}\sigma_{\omega z}=1\times10^{-5}\mathrm{~m^2/s}。在(0.02,0.2)秒范围内随机确定曝光时间后,我们以 f_s = 200 Hz 的频率对曝光时间内的传感器数据进行采样。为了模拟连续运动,每个传感器数据样本都是根据前一个数据点进行插值的,角速度数据是线性的,加速度数据是近似的。利用通过裁剪 BSDS500 训练集获得的清晰图像及其边缘真实情况,结合生成的传感器数据。上述的训练数据生成方案的概述如下图所示。
在这里插入图片描述

概括而言,精确的传感器数据直接与清晰图像相结合来计算生成训练集的运动模糊图像,另外通过将同步误差和噪声项添加到精确的传感器数据中获得有误差的传感器数据,用于计算训练集的估计模糊核。按照文章《 A Dataset for Deep Image Deblurring Aided by Inertial Sensor Data》提出的方法,我们将时间延迟 t_d随机从高斯分布 N(0.03,0.012) 中选择,单位为秒,并将惯性传感器数据的噪声设置为加性白噪声,其标准差为对应数据标准差的 1/10。BSDS500 数据集的验证集和测试集图像没有进行裁剪,我们也采用上述方案来生成我们数据集的验证集和测试集。

4实验

4.1实验设置

方程(9)中的{\lambda^{t}}:第0阶段设置为0.005,后续阶段设置为0.5;

神经网络优化器:Adam优化器

学习率:1*10^{-4}

batch size:4

epoch:100

由于迭代参数N对实验的结果具有重要的影响,因此采用启发式方法(heuristic method)来保证每次确定的参数是最优或接近最优。将N的值设置在2到6之间,并利用不同N的最终迭代的交叉熵损失。下图显示了测试集上随着N变化的损失趋势。可以观察到性能当N超过4时,改进变得微乎其微。考虑到网络架构不应该过于复杂,N设置为4。
在这里插入图片描述

由于去模糊图像和相应的清晰图像之间可能存在随机错位,因此作者采用与文章《Non-blind deblurring: Handling kernel uncertainty with CNNs》中描述的相同过程将去模糊图像与清晰图像对齐,然后切除边界像素。在评估测试集上的结果之前,对边缘检测结果执行相同的对齐操作,确保它们与地面真实边缘准确对齐。

4.2消融实验

Ablation Study (消融实验)是一种实验方法,用于分析和评估模型中各个组件或特性对整体性能的贡献。在进行消融实验时,研究人员会逐步移除、修改或替换模型中的某些部分(例如特征、层、模块或参数),以观察这些变化对模型表现的影响。

我们的消融研究重点关注在迭代优化过程中引入中间边缘检测结果所带来的性能增益。我们考虑以下三种情况进行比较:没有边缘信息的原始去模糊网络结构、仅在最终输出中合并边缘信息以及在迭代过程中合并更丰富的中间边缘信息(本文提出的)。我们保持训练设置一致,并且应用相同的Canny边缘检测算法来获得所有去模糊结果的边缘检测结果。我们提出的合成数据集的测试集上的边缘检测性能如下表所示,并记录了最佳数据集尺度 (ODS) 和最佳图像尺度 (OIS) 的 F -measure以进行评估。

F-measure是边缘检测评估中广泛使用的指标,它平衡了检测到的边缘的精度和召回率。F-measure 的值范围在 0 到 1 之间,值越大表示模型的表现越好,尤其是在精确度和召回率之间达到了良好的平衡。 ODS 是指通过为数据集中的每个单独图像选择最佳阈值来计算 F -measure,而 OIS 通过在所有图像中全局选择最佳阈值来计算 F-measure。

在这里插入图片描述

可以看出,在去模糊过程中加入更丰富的边缘信息确实可以提高边缘检测性能。

4.3性能评估与比较

将本文的方法与一些具有代表性的图像去模糊方法比较,包括传统的基于单图像的去模糊方法hyper-Laplacian、基于深度学习的方法DeblurGAN-v2,FDN,IRCNN,并且应用相同的Canny边缘检测算法来获得所有去模糊后的边缘检测结果。本文提出的方法的 ODS 和 OIS 分数略好于 FDN 和 IRCNN,并大幅超过 HL 和 DeblurGAN-v2 。这表明本文的方法在运动模糊图像的边缘检测性能方面优于这些现有方法。
在这里插入图片描述
在这里插入图片描述

为测试所提出的方法针对传感器数据错误的鲁棒性,作者将合成数据集中的传感器误差水平提高了2到3倍(曝光时间也延长了2到3倍),将新生成的数据集用于上述方法的测试,测试结果如下图:
在这里插入图片描述
可以看出本文提出的方法在误差水平提高的同时相对于其他方法ODS评分衰减的更少,表明该方法在面对传感器误差时更稳健。

5总结

在本文中,作者提出通过将去模糊过程与边缘检测任务相结合,确保去模糊过程的有效性,从而实现更高的边缘检测精度。利用惯性传感器辅助去模糊过程,并通过基于神经网络的迭代优化方案解决传感器数据误差的影响。在迭代过程中,融入丰富的边缘信息,以使网络的优化目标适应边缘检测任务。实验结果表明,这种方法在合成数据集上实现了更高的准确性和鲁棒性,验证了该方法在运动模糊图像边缘检测中的有效性。

作者提出通过将去模糊过程与边缘检测任务相结合,确保去模糊过程的有效性,从而实现更高的边缘检测精度。利用惯性传感器辅助去模糊过程,并通过基于神经网络的迭代优化方案解决传感器数据误差的影响。在迭代过程中,融入丰富的边缘信息,以使网络的优化目标适应边缘检测任务。实验结果表明,这种方法在合成数据集上实现了更高的准确性和鲁棒性,验证了该方法在运动模糊图像边缘检测中的有效性。

全部评论 (0)

还没有任何评论哟~