热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

边缘检测系列3:【HED】HolisticallyNested边缘检测

引入除了传统的边缘检测算法,当然也有基于深度学习的边缘检测模型这次就介绍一篇比较经典的论文Holistically-NestedEdgeDetection其中的Holistical




引入

  • 除了传统的边缘检测算法,当然也有基于深度学习的边缘检测模型

  • 这次就介绍一篇比较经典的论文 Holistically-Nested Edge Detection

  • 其中的 Holistically-Nested 表示此模型是一个多尺度的端到端边缘检测模型


相关资料
  • 论文:Holistically-Nested Edge Detection

  • 官方代码(Caffe):s9xie/hed

  • 非官方实现(Pytorch): xwjabc/hed


效果演示
  • 论文中的效果对比图:


模型结构
  • HED 模型包含五个层级的特征提取架构,每个层级中:


    • 使用 VGG Block 提取层级特征图

    • 使用层级特征图计算层级输出

    • 层级输出上采样

  • 最后融合五个层级输出作为模型的最终输出:


    • 通道维度拼接五个层级的输出

    • 1x1 卷积对层级输出进行融合

  • 模型总体架构图如下:


代码实现

导入必要的模块

import cv2
import numpy as np
from PIL import Image
import paddle
import paddle.nn as nn

构建 HED Block


  • 由一个 VGG Block 和一个 score Conv2D 层组成

  • 使用 VGG Block 提取图像特征信息

  • 使用一个额外的 Conv2D 计算边缘得分

class HEDBlock(nn.Layer):
def __init__(self, in_channels, out_channels, paddings, num_convs, with_pool=True):
super().__init__()
# VGG Block
if with_pool:
pool = nn.MaxPool2D(kernel_size=2, stride=2)
self.add_sublayer('pool', pool)
conv1 = nn.Conv2D(in_channels=in_channels, out_channels=out_channels, kernel_size=3, stride=1, padding=paddings[0])
relu = nn.ReLU()
self.add_sublayer('conv1', conv1)
self.add_sublayer('relu1', relu)
for _ in range(num_convs-1):
cOnv= nn.Conv2D(in_channels=out_channels, out_channels=out_channels, kernel_size=3, stride=1, padding=paddings[_+1])
self.add_sublayer(f'conv{_+2}', conv)
self.add_sublayer(f'relu{_+2}', relu)
self.layer_names = [name for name in self._sub_layers.keys()]
# Socre Layer
self.score = nn.Conv2D(in_channels=out_channels, out_channels=1, kernel_size=1, stride=1, padding=0)
def forward(self, input):
for name in self.layer_names:
input = self._sub_layers[name](input)
return input, self.score(input)

构建 HED Caffe 模型


  • 本模型基于官方开源的 Caffe 预训练模型实现,预测结果非常接近官方实现。

  • 此代码会稍显冗余,主要是为了对齐官方提供的预训练模型,具体的原因请参考如下说明:


    • 由于 Paddle 的 Bilinear Upsampling 与 Caffe 的 Bilinear DeConvolution 并不完全等价,所以这里使用 Transpose Convolution with Bilinear 进行替代以对齐模型输出。

    • 因为官方开源的 Caffe 预训练模型中第一个 Conv 层的 padding 参数为 35,所以需要在前向计算时进行中心裁剪特征图以恢复其原始形状。

    • 裁切所需要的参数参考自 XWJABC 的复现代码,代码链接

class HED_Caffe(nn.Layer):
def __init__(self,
channels=[3, 64, 128, 256, 512, 512],
nums_cOnvs=[2, 2, 3, 3, 3],
paddings=[[35, 1], [1, 1], [1, 1, 1], [1, 1, 1], [1, 1, 1]],
crops=[34, 35, 36, 38, 42],
with_pools=[False, True, True, True, True]):
super().__init__()
'''
Caffe HED model re-implementation in Paddle.
This model is based on the official Caffe pre-training model.
The inference results of this model are very close to the official implementation in Caffe.
Pytorch and Paddle's Bilinear Upsampling are not completely equivalent to Caffe's DeConvolution with Bilinear, so Transpose Convolution with Bilinear is used instead.
In the official Caffe pre-training model, the padding parameter value of the first convolution layer is equal to 35, so the feature map needs to be cropped.
The crop parameters refer to the code implementation by XWJABC. The code link: https://github.com/xwjabc/hed/blob/master/networks.py#L55.
'''
assert (len(channels) - 1) == len(nums_convs), '(len(channels) -1) != len(nums_convs).'
self.crops = crops
# HED Blocks
for index, num_convs in enumerate(nums_convs):
block = HEDBlock(in_channels=channels[index], out_channels=channels[index+1], paddings=paddings[index], num_cOnvs=num_convs, with_pool=with_pools[index])
self.add_sublayer(f'block{index+1}', block)
self.layer_names = [name for name in self._sub_layers.keys()]
# Upsamples
for index in range(2, len(nums_convs)+1):
upsample = nn.Conv2DTranspose(in_channels=1, out_channels=1, kernel_size=2**index, stride=2**(index-1), bias_attr=False)
upsample.weight.set_value(self.bilinear_kernel(1, 1, 2**index))
upsample.weight.stop_gradient = True
self.add_sublayer(f'upsample{index}', upsample)
# Output Layers
self.out = nn.Conv2D(in_channels=len(nums_convs), out_channels=1, kernel_size=1, stride=1, padding=0)
self.sigmoid = nn.Sigmoid()
def forward(self, input):
h, w = input.shape[2:]
scores = []
for index, name in enumerate(self.layer_names):
input, score = self._sub_layers[name](input)
if index > 0:
score = self._sub_layers[f'upsample{index+1}'](score)
score = score[:, :, self.crops[index]: self.crops[index] + h, self.crops[index]: self.crops[index] + w]
scores.append(score)
output = self.out(paddle.concat(scores, 1))
return self.sigmoid(output)
@staticmethod
def bilinear_kernel(in_channels, out_channels, kernel_size):
'''
return a bilinear filter tensor
'''
factor = (kernel_size + 1) // 2
if kernel_size % 2 == 1:
center = factor - 1
else:
center = factor - 0.5
og = np.ogrid[:kernel_size, :kernel_size]
filt = (1 - abs(og[0] - center) / factor) * (1 - abs(og[1] - center) / factor)
weight = np.zeros((in_channels, out_channels, kernel_size, kernel_size), dtype='float32')
weight[range(in_channels), range(out_channels), :, :] = filt
return paddle.to_tensor(weight, dtype='float32')

构建 HED 模型


  • 下面就是一个比较精简的 HED 模型实现

  • 与此同时也意味着下面这个模型会与官方实现的模型有所差异,具体差异如下:


    • 3 x 3 卷积采用 padding == 1

    • 采用 Bilinear Upsampling 进行上采样

  • 同样可以加载预训练模型,不过精度可能会略有下降

# class HEDBlock(nn.Layer):
# def __init__(self, in_channels, out_channels, num_convs, with_pool=True):
# super().__init__()
# # VGG Block
# if with_pool:
# pool = nn.MaxPool2D(kernel_size=2, stride=2)
# self.add_sublayer('pool', pool)
# conv1 = nn.Conv2D(in_channels=in_channels, out_channels=out_channels, kernel_size=3, stride=1, padding=1)
# relu = nn.ReLU()
# self.add_sublayer('conv1', conv1)
# self.add_sublayer('relu1', relu)
# for _ in range(num_convs-1):
# cOnv= nn.Conv2D(in_channels=out_channels, out_channels=out_channels, kernel_size=3, stride=1, padding=1)
# self.add_sublayer(f'conv{_+2}', conv)
# self.add_sublayer(f'relu{_+2}', relu)
# self.layer_names = [name for name in self._sub_layers.keys()]
# # Socre Layer
# self.score = nn.Conv2D(
# in_channels=out_channels, out_channels=1, kernel_size=1, stride=1, padding=0)
# def forward(self, input):
# for name in self.layer_names:
# input = self._sub_layers[name](input)
# return input, self.score(input)
# class HED(nn.Layer):
# def __init__(self,
# channels=[3, 64, 128, 256, 512, 512],
# nums_cOnvs=[2, 2, 3, 3, 3],
# with_pools=[False, True, True, True, True]):
# super().__init__()
# '''
# HED model implementation in Paddle.
# Fix the padding parameter and use simple Bilinear Upsampling.
# '''
# assert (len(channels) - 1) == len(nums_convs), '(len(channels) -1) != len(nums_convs).'
# # HED Blocks
# for index, num_convs in enumerate(nums_convs):
# block = HEDBlock(in_channels=channels[index], out_channels=channels[index+1], num_cOnvs=num_convs, with_pool=with_pools[index])
# self.add_sublayer(f'block{index+1}', block)
# self.layer_names = [name for name in self._sub_layers.keys()]
# # Output Layers
# self.out = nn.Conv2D(in_channels=len(nums_convs), out_channels=1, kernel_size=1, stride=1, padding=0)
# self.sigmoid = nn.Sigmoid()
# def forward(self, input):
# h, w = input.shape[2:]
# scores = []
# for index, name in enumerate(self.layer_names):
# input, score = self._sub_layers[name](input)
# if index > 0:
# score = nn.functional.upsample(score, size=[h, w], mode='bilinear')
# scores.append(score)
# output = self.out(paddle.concat(scores, 1))
# return self.sigmoid(output)

预训练模型

def hed_caffe(pretrained=True, **kwargs):
model = HED_Caffe(**kwargs)
if pretrained:
pdparams = paddle.load('hed_pretrained_bsds.pdparams')
model.set_dict(pdparams)
return model

预处理操作


  • 类型转换

  • 归一化

  • 转置

  • 增加维度

  • 转换为 Paddle Tensor

def preprocess(img):
img = img.astype('float32')
img -= np.asarray([104.00698793, 116.66876762, 122.67891434], dtype='float32')
img = img.transpose(2, 0, 1)
img = img[None, ...]
return paddle.to_tensor(img, dtype='float32')

后处理操作


  • 上下阈值限制

  • 删除通道维度

  • 反归一化

  • 类型转换

  • 转换为 Numpy NdArary

def postprocess(outputs):
results = paddle.clip(outputs, 0, 1)
results = paddle.squeeze(results, 1)
results *= 255.0
results = results.cast('uint8')
return results.numpy()

模型推理

model = hed_caffe(pretrained=True)
img = cv2.imread('sample.png')
img_tensor = preprocess(img)
outputs = model(img_tensor)
results = postprocess(outputs)
show_img = np.concatenate([cv2.cvtColor(img, cv2.COLOR_BGR2RGB), cv2.cvtColor(results[0], cv2.COLOR_GRAY2RGB)], 1)
Image.fromarray(show_img)

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ST0UFcaX-1637974547860)(output_20_0.png)]


模型训练


  • 模型的训练代码仍在打磨,后续会继续更新的

总结
  • 这是一篇发表于 CVPR 2015 上的论文,距离现在也又很多年时间了,所以模型结构看起来算是比较简单的。

  • 不过由于当时官方实现采用的是 Caffe 框架,加上那个 35 的谜之 padding,导致复现的时候并不是很顺利。

  • 有关于边缘检测模型的训练,之后会有一个单独的项目来详细展开的,敬请期待(低情商:还没搞完)。



推荐阅读
  • 深入解析轻量级数据库 SQL Server Express LocalDB
    本文详细介绍了 SQL Server Express LocalDB,这是一种轻量级的本地 T-SQL 数据库解决方案,特别适合开发环境使用。文章还探讨了 LocalDB 与其他轻量级数据库的对比,并提供了安装和连接 LocalDB 的步骤。 ... [详细]
  • 本文将详细介绍如何配置并整合MVP架构、Retrofit网络请求库、Dagger2依赖注入框架以及RxAndroid响应式编程库,构建高效、模块化的Android应用。 ... [详细]
  • 能够感知你情绪状态的智能机器人即将问世 | 科技前沿观察
    本周科技前沿报道了多项重要进展,包括美国多所高校在机器人技术和自动驾驶领域的最新研究成果,以及硅谷大型企业在智能硬件和深度学习技术上的突破性进展。特别值得一提的是,一款能够感知用户情绪状态的智能机器人即将问世,为未来的人机交互带来了全新的可能性。 ... [详细]
  • 通过使用CIFAR-10数据集,本文详细介绍了如何快速掌握Mixup数据增强技术,并展示了该方法在图像分类任务中的显著效果。实验结果表明,Mixup能够有效提高模型的泛化能力和分类精度,为图像识别领域的研究提供了有价值的参考。 ... [详细]
  • 构建高性能Feed流系统的设计指南
    随着移动互联网的发展,Feed流系统成为了众多社交应用的核心组成部分。本文将深入探讨如何设计一个高效、稳定的Feed流系统,涵盖从基础架构到高级特性的各个方面。 ... [详细]
  • 本文由公众号【数智物语】(ID: decision_engine)发布,关注获取更多干货。文章探讨了从数据收集到清洗、建模及可视化的全过程,介绍了41款实用工具,旨在帮助数据科学家和分析师提升工作效率。 ... [详细]
  • 本文将详细介绍Fuel CMS如何基于CodeIgniter框架构建,包括其单入口模式的实现方式及关键配置文件的作用。通过分析本地环境中的index.php和.htaccess文件,我们将更好地理解Fuel CMS的核心架构。 ... [详细]
  • 英特尔推出第三代至强可扩展处理器及傲腾持久内存,AI性能显著提升
    英特尔在数据创新峰会上发布了第三代至强可扩展处理器和第二代傲腾持久内存,全面增强AI能力和系统性能。 ... [详细]
  • 使用 Jupyter Notebook 实现 Markdown 编写与代码运行
    Jupyter Notebook 是一个开源的基于网页的应用程序,允许用户在同一文档中编写 Markdown 文本和运行多种编程语言的代码,并实时查看运行结果。 ... [详细]
  • 分享两个GitHub链接,今天看到的,超赞超赞不能更赞了,答应我一定要去看好吗~~~~不论是笔记还是github中分享的其它资源ÿ ... [详细]
  • Python 数据可视化实战指南
    本文详细介绍如何使用 Python 进行数据可视化,涵盖从环境搭建到具体实例的全过程。 ... [详细]
  • 从0到1搭建大数据平台
    从0到1搭建大数据平台 ... [详细]
  • 在2019中国国际智能产业博览会上,百度董事长兼CEO李彦宏强调,人工智能应务实推进其在各行业的应用。随后,在“ABC SUMMIT 2019百度云智峰会”上,百度展示了通过“云+AI”推动AI工业化和产业智能化的最新成果。 ... [详细]
  • 独家解析:深度学习泛化理论的破解之道与应用前景
    本文深入探讨了深度学习泛化理论的关键问题,通过分析现有研究和实践经验,揭示了泛化性能背后的核心机制。文章详细解析了泛化能力的影响因素,并提出了改进模型泛化性能的有效策略。此外,还展望了这些理论在实际应用中的广阔前景,为未来的研究和开发提供了宝贵的参考。 ... [详细]
  • 在《Python编程基础》课程中,我们将深入探讨Python中的循环结构。通过详细解析for循环和while循环的语法与应用场景,帮助初学者掌握循环控制语句的核心概念和实际应用技巧。此外,还将介绍如何利用循环结构解决复杂问题,提高编程效率和代码可读性。 ... [详细]
author-avatar
广东暖暖_小乖
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有