OmniDet: Surround View Cameras based Multi-taskVisual Perception Network for Autonomous Driving 论文精读

OmniDet:基于全景摄像头的自动驾驶多任务视觉感知网络


摘要

环视鱼眼摄像头通常部署在自动驾驶中,用于车辆周围的360°近场感应。这项工作提出了一个基于未修正鱼眼图像的多任务视觉感知网络,以使车辆能够感知其周围环境。它包括自动驾驶系统所需的六项主要任务:深度估计、视觉里程计、语义分割、运动分割、物体检测和镜头脏污检测。我们证明,联合训练的模型比各自的单个任务版本表现得更好。我们的多任务模型具有共享编码器,提供了显著的计算优势,并具有协同解码器,其中任务相互支持。我们提出了一种新的基于相机几何的自适应机制,以在训练和推理时对鱼眼失真模型进行编码。这对于在WoodScape数据集上进行训练至关重要,该数据集由来自世界不同地区的数据组成,这些数据由安装在三辆不同汽车上的12个不同摄像头收集,具有不同的本质和视角。考虑到边界框不是变形鱼眼图像的良好表示,我们还将对象检测扩展到使用具有非均匀采样顶点的多边形。我们还在标准汽车数据集(即KITTI和Cityscapes)上评估了我们的模型。我们在KITTI上获得了深度估计和姿态估计任务的最新结果,以及其他任务的竞争性能。我们对各种架构选择和任务加权方法进行了广泛的消融研究。短视频 https://youtu.be/xbSjZ5OfPes 提供定性结果。

一、介绍

环视鱼眼摄像头已经在高级汽车中部署了十多年,从仪表板显示单元上的可视化应用到为自动停车提供近场感知。鱼眼相机具有很强的径向畸变,考虑畸变矫正的缺点,像视野减小和外围的重采样失真伪影[1],因此无法进行畸变矫正。由于空间变化的畸变,物体的外观变化更大,特别是对于近处物体。因此,鱼眼感知是一项具有挑战性的任务,然而,尽管鱼眼感知很普遍,但其研究相对较少。

自动驾驶应用程序需要各种感知任务,以提供涵盖各种使用情况的强大系统。并行检测对象的替代方法是实现高精度所必需的。例如,可以基于外观、运动和深度提示来检测对象。尽管汽车嵌入式系统中的计算能力不断增强,但由于摄像机和感知任务的数量不断增加,始终需要高效的设计。多任务学习(MTL)是一种有效的设计模式,通常用于所有任务共享大部分计算[2],[3]。此外,多个任务的学习特征可以作为正则化器,提高泛化能力。Mao等人[4]表明,多任务学习提高了对抗性鲁棒性,这对于安全应用至关重要。在汽车多任务设置中,MultiNet[5]是最早在KITTI上演示三任务网络的公司之一,进一步的工作主要针对三任务设置。

图1:我们的实时OmniDet模型对原始鱼眼图像的结果。a、后置摄像头输入图像;b、距离估计;c、语义分割;d、运动估计;e、基于24边多边形的对象检测;f、Soiling分割(异步)

这项工作展示了一个多任务感知模型,用于未校正鱼眼图像上的六个基本感知任务(如图1所示)。当我们讨论建立在我们之前的许多工作基础上的完整感知系统时,很难涵盖所有技术细节,我们将重点放在主要贡献上。我们的贡献如下:

•我们展示了第一个实时六任务模型,用于环绕视图鱼眼摄像头感知。

•我们提出了一种新的径向畸变相机张量表示,以使CNN能够适应WoodScape数据集中的12个不同相机模型。

•我们提出了新颖的设计技术,包括 VarNorm 任务加权。

•我们设计了协同解码器,除了共享编码器外,不同的任务相互帮助。

•我们展示了WoodScape上的六个任务模型和KITTI和Cityscapes上的五个任务模型,其性能优于单个任务基线。

•我们在单眼方法中获得了KITTI深度和姿态估计任务的最新结果。

二、我们MTL中的感知任务和损失

我们的目标是建立一个多任务模型,涵盖近场感知用例(如停车或交通堵塞辅助)所需的模块。本文是在我们以前专注于单个任务的论文的基础上构建的,我们主要讨论新的改进。在以下小节中,我们将向读者介绍这些论文的更多细节和文献综述。一般来说,鱼眼感知领域的工作很少。具体来说,只有我们以前在多任务学习方面的工作:FisheyMultiNet[6],它讨论了一个更直接的三任务网络。

感知系统包括语义任务、几何任务和镜头脏污检测。标准的语义任务是对象检测(行人、车辆和骑车人)和语义分割(道路、车道和路缘)。鱼眼摄像头安装在车辆的较低位置,容易因道路溅起的泥土或水而弄脏镜头。因此,检测相机镜头上的污渍并触发清洁系统至关重要[7]。语义任务通常需要覆盖各种对象的大型注释数据集。实际上覆盖所有可能的对象是不可行的。因此,通常使用几何信息如对象运动或深度信息来处理少见目标的方式被广泛使用。它们还将补充对标准对象的检测,并提供更强的鲁棒性。因此,我们建议包括运动分割和深度估计任务。运动是汽车场景中的主要线索,它需要至少两帧或使用密集的光流[8]。自监督方法最近主导了深度估计,这也在鱼眼图像上得到了证明[9]。最后,视觉里程测量任务需要将检测到的物体放置在时间一致的地图中。

A、 自监督距离和姿态估计网络

我们使用我们之前的工作FisheyDistanceNet[9]建立了一个自监督的单目运动结构(SfM)框架,用于距离和姿态估计,并通过结合多项式投影模型函数来执行视图合成。总损失由重建匹配项Lr、正则化项Ls组成,如[10]中所述,该项在距离图内加强边缘感知平滑度。此外,还使用了跨序列距离一致性损失Ldc和尺度恢复技术。我们在以下段落中讨论了新的改进,这导致了准确性的显著提高。

我们结合了[11]中的特征度量损失,其中Ldis和Lcvt是在它的特征表示上计算的,在这里我们使用自关注自动编码器学习特征。这些损失的主要目的是防止训练目标陷入同质区域的多个局部最小值,因为鱼眼图像的同质区域要比直线图像大得多。它本质上是一个损失函数,它惩罚小斜率并使用图像梯度强调低纹理区域。利用一阶导数对目标特征进行正则化,约束自监督损失景观形成适当的收敛盆地。然而,由于一阶梯度之间存在不一致性,即空间上相邻的梯度指向相反的方向,因此,仅仅施加辨别损失不能保证我们在梯度下降期间移动到最优解。Shu等人[11]提出了一种具有相对较大收敛半径的收敛损失,以实现从远处的梯度下降。这是通过在优化步骤期间通过相应地鼓励特征梯度的平滑度和大的收敛半径来公式化损失以具有一致的梯度来实现的。距离估计Ldist的总目标损失为

其中β、γ、ω和µ分别加权距离正则化Ls、交叉序列距离一致性Ldc、判别性Ldis和收敛性Lcvt损失。

我们使用目标It、估计的特征FÜt帧、重建的目标IÜt 0计算图像和特征重建损失→t和特征Fût 0→t帧。它是一般稳健像素损失项[12]和结构相似性(SSIM)[13]的线性组合,如[14]中所述。

B、 广义对象检测

由于严重的径向畸变,特别是在外围,鱼眼相机中的标准边界框表示失败。在并行工作[15]中,我们探索了鱼眼图像的不同输出表示,包括定向边界框、曲线框、椭圆和多边形。我们已经将该模型集成到MTL框架中,在该框架中,我们使用24边多边形表示进行对象检测。我们简要总结了这里的细节,并参考我们的扩展论文[15],了解有关广义对象检测的更多细节。

多边形是任何任意形状的通用表示;然而,注释比边界框更昂贵。对象轮廓可以在360°范围内均匀采样,分成N个相等的多边形顶点,每个顶点由PolyYOLO[16]中使用的距离对象质心的径向距离r表示。我们观察到,均匀采样不能有效地表示鱼眼图像对象轮廓中的高曲率变化。因此,我们使用了基于局部轮廓曲率的自适应采样。为了最佳地表示对象轮廓,我们非均匀地分布顶点。我们采用[17]中的算法来检测给定曲线形状中的优势点,这最能代表对象。然后,我们使用[18]中的算法减少点集,以获得最具代表性的简化曲线。我们调整YOLOv3[19]解码器以输出多边形和上面列出的其他表示,以便进行统一比较。

C、 细分任务

我们的三项任务被建模为分割问题。语义和污损分割在WoodScape数据集上分别具有七个和四个输出类。运动分割使用两个帧并输出二进制运动或静态掩码。在训练期间,网络预测后验概率Yt,该后验概率通过Lovasz Softmax[20]损失和Focal[21]损失以监督方式优化,以处理类不平衡,而不是我们之前工作中使用的交叉熵损失。我们通过对后验概率应用逐像素argmax操作来获得最终分割掩模Mt。

脏污数据集是独立构建的,因此不能以传统方式联合训练。因此,我们冻结了使用其他五个任务训练的共享编码器,并仅训练解码器以防弄脏。这表明了在其他任务中重新使用编码器功能的潜力。我们还使用异步反向传播联合训练了脏污[22],但它实现了与使用冻结编码器相同的精度。与我们之前的工作SoilingNet[7]相比,我们从平铺输出转移到像素级分割。

D、 关节优化

平衡任务损失是训练多任务模型的一个重要问题。我们的贡献是双重的。我们评估了五项任务的各种任务加权策略,并与先前文献中的三项任务实验进行了比较。我们评估了Kendall[23]、梯度大小归一化GradNorm[24]、动态任务优先级DTP[25]、动态加权平均DWA[26]和几何损失[27]的不确定性损失。

其次,我们提出了一种新的方差归一化方法VarNorm。它包括通过过去n个时期的方差对每个损失进行归一化。任务i在时间t的损失权重公式如下:

其中Li是过去n个时期内任务损失i的平均值。我们选择n=5。这种方法的动机是一个简单的想法,即任务损失值可以被视为一个分布,其离散度是其方差。方差归一化基于前n个时期重新缩放不同任务损失分布之间的离散度。较大的分散导致较低的任务权重,而较小的分散导致较高的任务权重。它的最终效果往往会使任务的学习速度同质化。如表III所示,等权重是最差的,通过使用上述任何动态任务加权方法,我们的多任务网络比单任务网络表现得更好。我们将所提出的VarNorm方法用于所有进一步的实验,因为它获得了最佳结果。

三、 MTL OMNIDET的网络详细信息

编码器-解码器架构通常用于密集预测任务。我们使用这种类型的架构,因为它很容易扩展到用于多个任务的共享编码器。我们通过结合[28]中基于向量注意力的成对和拼接自注意力编码器来设计我们的编码器。这些网络在空间维度和信道上有效地调整权重。我们将Siamese(孪生网络)方法应用于运动预测网络,在那里我们将源帧和目标帧特征连接起来,并将它们传递给超分辨率运动解码器。由于权重在暹罗编码器中共享,因此可以保存并重新使用前一帧的编码器,而不是重新计算。受[11]的启发,我们开发了一种用于单视图重建的辅助自关注自动编码器。我们将在接下来的两个小节中详细介绍我们的主要小说贡献。首先,我们使用新的相机几何张量来处理多个视点和相机固有距离估计的变化。其次,我们通过跨任务连接使用协同解码器来提高彼此的性能。

A、 相机几何张量Ct

1) 动机:在工业部署环境中,我们的目标是设计一种可以部署在数百万辆车上的模型,每辆车都有自己的一组摄像头。尽管特定系列车辆的基本摄像头内部模型相同,但由于制造工艺的原因,存在差异,需要对每个摄像头进行校准。即使在部署后,校准也可能因环境温度过高或老化而发生变化。因此,模型中的校准自适应机制至关重要。这与公共数据集形成对比,公共数据集对训练和测试数据集都有一个摄像机实例。在Woodscape鱼眼数据集[29]中,有12个具有轻微内在变化的不同相机来评估这种效果。这四个相机的一个模型而不是四个单独的模型也将具有几个实际优点,例如(1)提高了嵌入式系统的效率,需要更少的内存和数据传输速率,(2)通过访问更大的数据集和通过不同视图进行正则化来改进训练,以及(3)维护和认证一个模型而不是四个模型。

我们建议将所有相机几何特性转换为称为相机几何张量Ct的张量,然后将其传递给CNN模型以解决此问题。最接近的工作是CAM卷积[30],它将相机感知卷积用于针孔相机。我们在这项工作的基础上,推广到任意的相机几何结构,包括鱼眼相机。

图2:基于全景摄像头的多任务视觉感知框架概述。

距离估计任务(蓝色块)利用来自语义/运动估计(绿色和蓝色雾块)和相机几何自适应卷积(橙色块)的语义引导和动态对象掩蔽。

此外,我们用语义特征指导检测解码器特征(灰度块)。编码器块(以相同颜色显示)对于所有任务都是通用的。我们的框架由处理块组成,用于训练自监督距离估计(蓝色块)和语义分割(绿色块)、运动分割(蓝色雾块)、基于多边形的鱼眼对象检测(灰色块)以及污染分割的异步任务(玫瑰雾块)。

我们通过在3D空间(perano块)中对预测距离图进行后处理来获得环绕视图几何信息。相机张量Ct(橙色块)帮助OmniDet在多个相机视点上生成距离图,并使网络相机独立。

2) 方法:我们在自关注网络(SAN)编码器模块的RGB特征到3D信息的映射中引入了相机几何张量Ct,如图2所示。它包含在每个自我关注阶段,也适用于每个跳跃连接。相机几何张量Ct是在三步过程中形成的:为了有效训练,预先计算像素坐标和入射角图。通过合并来自摄像机校准的信息,将每个像素的归一化坐标用于这些通道。我们连接这些张量,并用Ct表示它们,并将其与输入特性一起传递给我们的SAN成对和拼接操作模块。除了现有的解码器信道输入之外,它还包括六个信道。原则上,所提出的方法可以应用于[1]中解释的任何鱼眼投影模型。使用相机固有参数计算包括在我们的共享自关注编码器中的不同映射,其中失真系数a1、a2、a3、a4用于创建入射角映射(ax、ay)、cx、,cy被用于计算主点坐标图(ccx,ccy),并且相机的传感器尺寸(宽度w和高度h)被用于形成归一化坐标图。

3) 中心坐标(cc):通过包括以(0,0)为中心的ccx和ccy坐标通道,将队形中的主点位置送入SAN的成对和拼接操作模块。我们通过使用双线性插值调整大小来连接ccx和ccy,以匹配输入特征大小。我们将ccx和ccy频道定义为:

4) 入射角图(ax,ay):对于针孔(直线)相机模型,使用相机焦距f:ach[i,j]=arctan(ccch[i、j]/f)从cc图计算水平和垂直入射角图,其中ch为x或y(参考等式3)。对于不同的鱼眼相机模型,通过取[1]中解释的径向畸变函数r(θ)的倒数,可以类似地推导出入射角图。具体而言,对于本文使用的多项式模型,入射角θ是通过数值方法计算r(θ)=p x 2 I+yI 2=a1θ+a2θ2+a3θ3+a4θ4的四阶多项式根来表示的。我们将预先计算的根存储在所有像素坐标的查找表中,以实现训练效率,并通过分别设置xI=ccx[i,j]、yI=0和xI=0,yI=ccy[i,j]来创建ax和ay映射。

5) 归一化坐标(nc):此外,我们添加了两个归一化坐标通道[31],[30],其值相对于图像坐标在−1和1之间线性变化。通道独立于相机传感器的属性,并表征x和y方向上的空间位置。(例如,更接近1的xû通道的值指示该特征更接近图像的右边界)。

B、 协同任务

1) 处理动态对象和解决无限深度问题:由于动态对象违反了静态世界假设,有关其深度/距离的信息在自动驾驶中至关重要;否则,我们将在推断阶段遇到无限深度问题,并导致重建损失的污染。我们使用运动分割信息来排除潜在的运动动态对象,而距离是从非运动动态对象中学习的。为此,我们定义了逐像素掩码µt,如果像素不属于当前帧It中的动态对象,也不属于重建帧I的错误投影动态对象,则该掩码包含1→否则为0。因此,我们预测属于目标帧It的运动分段掩码Mt-mot,以及源帧It 0的运动掩码Mt0。源帧内的动态对象在Mt。然而,为了获得错误投影的动态对象,我们需要通过最近邻采样将运动掩码扭曲到目标帧,从而产生投影的运动掩码Mt 0→t、 我们提出了一种替代技术,以在运动分割任务不可用时启用动态对象的过滤。我们利用语义分割输出并遵循上述类似的方法。通过定义集合动态对象类SDC⊂S,我们可以将语义分割掩码减少为二进制掩码,满足上述条件。位置ij处的元素:

动态对象可以通过在图像和特征的重建损失的情况下对掩模进行逐像素多重复制来进行掩模。

2) 语义引导距离和检测解码器:根据我们之前的工作[14],为了更好地将从多任务网络的分割分支提取的语义知识纳入距离估计,我们使用像素自适应卷积[32](PAC)将其纳入距离解码器,以从语义特征中提取知识。这尤其打破了卷积的空间不变性,并允许将特定于位置的语义知识结合到多层次距离特征中。如图2所示(绿色块),在分割解码器的不同级别提取特征。这里,像素自适应卷积的输入信号x被处理为

像素位置ij、像素位置之间的距离ra−i、b−j以及位置ij周围的k×k邻域窗口Nk(ij)。邻域内的x元素win dow Nk(ij)分别用作具有权重W、偏差B∈R1和核函数K的卷积的输入,用于计算从分割分支提取的语义引导特征F∈RD之间的相关性。

3) 将自我注意和语义特征链接到2D检测:为了利用多任务学习设置,首先,我们提取自我注意网络(SAN)[28]编码器特征,并将其作为输入信号提供给等式5。我们将空间信息从SAN编码器绕过到语义解码器,并融合这些特征(跳过连接)。最后,我们通过应用PAC并获得内容不可知的特征来融合这些特征和检测解码器嵌入。OmniDet框架中的这种新融合技术显著提高了检测解码器的准确性,如表I所示。

C、 实施详细信息

我们使用Pytorch,并为OmniDet框架采用单阶段学习过程,以促进网络优化。我们在编码器中加入了最近提出的SAN。作者提出了两种卷积变体,即成对和拼接。我们主要使用补丁,但对其进行消融研究。我们使用Ranger(RAdam[33]+LookAhead[34])优化器来最小化训练目标函数。我们对模型进行了20个时期的训练,在24GB Titan RTX上批量大小为24,前15个时期的初始学习率为4×10−4,后5个时期的学习率降至10−5。距离解码器的S形输出σ被转换为D=m·σ+n的距离,其中m和n被选择为将D限制在0.1和100个单位之间。最后,我们将β、γ、ω和µ设置为10−3。来自具有多个视点的环绕视图相机的所有图像被彻底搅乱,并与它们各自的本质一起被馈送到距离和姿态网络,以创建相机几何张量Ct,如图2所示,并在第III-A节中描述。

四、 实验结果

A、 数据集

我们在Woodscape[29](一个带有多个任务注释的环绕视图鱼眼数据集)和针孔相机数据集KITTI[35]和Cityscape[36]上系统地训练和测试了我们的所有单任务和多任务模型。

1) WoodScape:WoodScape数据集由10000张图像组成,以6:1:3的比例分成训练、验证和测试。额外的专有数据用于我们模型的预训练和初始化。我们在5个最基本的物体类别上训练我们的2D盒子检测——行人、车辆、骑手、交通标志和交通灯。原始鱼眼上的多边形预测任务仅限于两类——行人和车辆。与交通信号灯和交通标志不同,这些类别本质上是非刚性的,外观上相当多样,因此适合多边形回归。我们从多边形回归任务的每个对象实例轮廓中采样24个具有高曲率值的点。学习这些点有助于回归更好的多边形形状,因为这些高曲率点定义了对象轮廓的形状。我们对道路、车道和路缘类别执行语义分割。图像从原始1MP分辨率调整为544×288像素。

2) Cityscapes:在Cityscape的例子中,我们从实例多边形中提取了2D框。我们在单任务和多任务设置中对2975幅图像训练OmniDet MTL模型。我们报告了由500张图像组成的验证分割的所有结果。图像大小调整为640×384像素,用于训练和验证。

3) KITTI:KITTI数据集由42382个具有相应原始激光雷达扫描的立体序列、7481个具有边界框注释的图像和200个具有语义注释的训练图像组成。我们使用根据Eigen等人[37]的数据分割进行自监督深度估计,所有任务的输入大小为640×192像素。有关拆分的详细信息,请参阅[9]。对于运动分割,我们使用DeepMotion[38]为Cityscapes和KITTI MoSeg[8]提供的注释。这里的标签仅适用于汽车类别。

B、 单任务学习与多任务学习

在表II中,如上所述,我们对所有数据集上提出的框架进行了广泛的消融。我们实验的定量结果表明,具有6个任务、5个不同任务的多任务网络比单任务模型表现得更好,以及我们在第III-B节中解释的拟议协同效应。对于KITTI和CityScapes,我们采用了我们新颖的 VarNorm 任务加权技术。通过感知任务的协同作用,我们在KITTI数据集上获得了最先进的深度和姿态估计结果,分别如表V和表VI所示。我们使用NVIDIA Jetson AGX平台上的TensorRT(FP16bit)推断模型,并报告所有任务的FPS。

C、 我们贡献的消融研究

对于表I中所示的主要特征的消融分析,我们考虑了自我注意编码器的两种变体,即成对和拼接。首先,我们用通用的参数化损失函数替换L1损失,并使用自关注编码器的拼接变量对其进行测试。我们将距离估计限制为40米。我们通过归因于使用鉴别特征损失Ldis提供的更好的监督信号,在该设置中实现了显著的增益。在这种情况下,不正确的距离值与Lcvt的组合一起被适当地惩罚,其中提供了正确的优化方向。这些损失有助于梯度下降法平稳过渡到最优解。当将相机几何张量添加到此设置时,我们观察到精度的显著提高,因为我们训练了具有不同相机本质和视角的多个相机。对于OmniDet框架来说,这是一个重要的功能。上述训练策略使网络摄像机独立,并更好地推广到从不同摄像机拍摄的图像。

为了实现几何特征和语义特征之间的协同,我们向距离解码器添加了语义指导。它有助于推理相同共享功能中的几何图形和内容,并消除光度模糊性。为了建立不受动态对象污染的鲁棒重建损失,我们引入了第III-B1节所述的语义和运动掩码,以过滤所有动态对象。与使用语义掩码相比,基于运动掩码的过滤产生了更好的增益以及CGT,因为语义可能不包含其类集合中的所有动态对象,如等式4所示。此外,这种贡献具有解决无限距离问题的潜力。最后,为了完成我们的协同作用,我们将语义引导的特征用于检测解码器,如第III-B2节所述,这在mAP中产生了显著的增益,并且所有任务的总体结果通过更好的共享特征而固有地改进。我们贡献的所有功能和任务之间的协同作用有助于OmniDet框架在每个任务的预测中以高精度实现良好的场景理解。我们还实验了使用圆柱矫正(Cyl Rect.),这在视野损失和减少失真之间提供了良好的权衡[29]。

对于原生鱼眼图像上的对象检测,除了标准的2D框表示之外,我们在表IV中对定向框、椭圆、曲线框和24边极多边形表示进行了基准测试。这里,mIoU GT表示了我们通过使用每个表示在实例分割方面可以实现的最大性能。它是在地面真相实例分割和相应表示的地面真相之间计算的。而mIoU代表则对我们网络的性能表示满意。我们还列出了复杂度比较中每个表示所涉及的参数数量。

D、 KITTI的最新比较

为了便于与之前的方法进行比较,我们还在KITTI特征分裂[39]上的经典深度估计设置中训练我们的距离估计方法,其结果如表V所示。随着深度、语义、运动和检测任务之间的协同作用以及表I中描述的特征及其重要性在第IV-C节中解释,我们优于所有以前的单眼方法。根据最佳实践,我们将深度限制在80m。我们还使用原始[40]和改进[41]地面真实深度图进行评估。方法*表示在线细化技术[42],其中在推断过程中对模型进行训练。使用[42]中的在线细化方法,我们获得了显著的改进。

在表VI中,我们报告了姿态估计网络的平均轨迹误差(以米为单位),方法是遵循Zhou[43]关于KITTI官方里程分割的相同协议(包含11个序列,其中包含通过IMU/GPS测量获得的地面真实(GT)里程,仅用于评估目的),并使用序列00-08进行训练,09-10进行测试。我们优于表VI中列出的先前方法,主要是通过使用我们的跨序列距离一致性损失[9]应用我们的束调整框架,这导致了更多约束,同时优化了隐式扩展训练输入序列的距离和相机姿态。这提供了以前方法所没有的额外一致性约束。

个人总结

论文地址

https://arxiv.org/abs/2102.07448

代码地址

https://github.com/valeoai/WoodScape

论文讲解

https://zhuanlan.zhihu.com/p/351965263

https://blog.csdn.net/weixin_43148897/article/details/124532237

个人理解

这篇论文整体还是有东西的,想要完全读懂,还需要整体读一下其之前发表的那几篇论文PolyYOLO、FisheyDistanceNet、SAN、Ranger等等

这篇论文整体的想法就是在鱼眼图上进行多个感知任务Multi-task learning (MTL),想法确实是好的 ,看着也确实是有东西

没在代码中看到脏污检测的部分,个人当前做这一块,因此论文没有更深入的调研

猜你喜欢

转载自blog.csdn.net/XDH19910113/article/details/128788088