作者:jackdaosen900 | 来源:互联网 | 2024-11-11 09:11
Panoptic-DeepLab是一种自底向上的全景分割方法,无需预先进行目标检测。该模型在CVPR2019上提出,以其简洁、强大且快速的特点成为全景分割任务的基准。通过高效地结合实例分割和语义分割,Panoptic-DeepLab能够准确地识别和区分图像中的每个对象和背景区域,为复杂的场景提供全面的分割结果。
bottom-up:不需要先做检测
Panoptic-DeepLab: A Simple, Strong, and Fast Baseline for Bottom-Up Panoptic Segmentation
论文链接:https://arxiv.org/pdf/1911.10194.pdf
Panoptic-DeepLab框架
采用双ASPP双解码器结构 预测三个输出,语义分割,实例中心和实例回归 Framework:
Encoder:ImageNet-Pretrained CNN(with dilated Conv:使得最后两层的尺度保持为1/16)
Separate ASPP and Decoder:
一个ASPP提取语义多尺度context,不同的上下文 一个ASPP提取实例多尺度context 双decoder:两个ASPP的输出,分别于backbone两个高分辨率的feature做融合。 然后上采样,得到更高分辨率的feature map,为了后面做密集预测。如果分辨率比较大,做密集预测结果是比较好的。(比如要得到100×100的mask,如果是50×50的mask,只需要上采样2倍,但是如果是10×10,就需要上采样10倍,直觉是,更少的feature map,10×10本身的信息量就很好了,得到更高的feature map是比较困难的,结果也会比较差。所以先提前得到一个较大的feature map)
Semantic segmentation:
用5×5卷积和1×1卷积,得到分割结果(H×W×Num_classes) Instance segmentation head:
predicting instance center point:实例中心预测,预测每个点是不是实例中心的概率。 H×W×128 通过 5×5卷积,得到H×W×32的,再通过1×1卷积,得到H×W×1的feature map,对于任何点只有一个值,范围为0-1,为概率值,代表该点为实例中心的概率 predicting the offsets to its corresponding mass center for every foreground pixel:实例中心回归。 有了实例中心,怎么得到实例。预测每个点到实例中心的偏移量是多少。H×W×128 通过 5×5卷积,得到H×W×32的,再通过1×1卷积,得到2通道的(Δx,Δy) 训练:实例中心编码为标准差为8个pixel的二维高斯概率分布,MSE loss;(因为如果只用一个点,很难预测。二维高斯map会更好学习一点) 测试:前景像素被分配到最近的质心点。 预测类别怎么知道?实例类别由语义分割结果知道。(语义分割结果不知道属于哪个实例,但是知道实例的类别) 融合语义分割和实例分割,得到最终的分割结果
关于实例分割和全景分割的paper: