卷积神经网络在近几年获得了跨越式的发展,虽然它们在诸如图像识别任务上的效果越来越好,但是随之而来的则是模型复杂度的不断提升。越来越深、越来越复杂的卷积神经网络在训练阶段需要大量存储与计算资源,因此设计高效的卷积神经网络是非常重要和基础的问题,而消除卷积核的冗余性是该问题主要的解决方案。
如何消除消除卷积核的冗余性?AI科技大本营邀请到微软亚洲研究院视觉计算组资深研究员王井东,他将在 31 号的直播公开课中为大家讲解发表在 ICCV 2017 和 CVPR2018 上基于交错组卷积的方法,这种方法优于 ResNet 和 MobileNet。
(点击链接,免费报名:https://edu.csdn.net/huiyiCourse/detail/783)
感兴趣的读者可以在直播前自行查阅论文或者下载代码,自己动手尝试,加深理解。
论文地址:
https://arxiv.org/abs/1707.02725
https://arxiv.org/abs/1804.06202
代码地址:https://github.com/welleast
主题:基于交错组卷积的高效深度神经网络
时间:5 月 31 日 20:00-21:00
地点:免费线上直播
王井东:微软亚洲研究院视觉计算组资深研究员
研究兴趣包括计算机视觉、多媒体以及机器学习。目前他研究的问题包括高效神经网络结构的设计、行人再识别以及多媒体搜索等。他曾担任过计算机视觉和人工智能会议的领域主席和高级程序委员会委员,比如 CVPR、ICCV、ECCV、AAAI、IJCAI、ACMMM 等。他也是 IEEE 汇刊 IEEE Transactions on Circuits and Systems for Video Technology 和 IEEE Transactions on Multimedia 的编委会成员。他是国际模式识别学会的会士。王博士在视觉、机器学习以及多媒体领域里发表了论文 100 余篇,个人专著一本。他的研究成果 10 多次转化到微软的关键产品和服务中。
对卷积神经网络和矩阵计算有初步了解,希望进一步提升的学习者。
1. 深度卷积神经网络设计的两个主要研究方向:变深和消除冗余。总结和分类。
2. 交错组卷积版本一:大网络结构,优于ResNet。 (ICCV 2017)
3. 交错组卷积版本二:小网络结构,优于MobileNet。(CVPR 2018)
19:45—20:00 学员提前入场
20:00—20:50 讲师课程分享
20:50—21:00 讲师答疑环节
1、开课前会有短信提醒或者邮件提醒,请报名的时候填写正确的手机号码及邮箱地址。
2、开课后 2-3 个工作日内会上传本节课的视频回放,报名后回放视频不限时观看。
点击链接,免费报名:https://edu.csdn.net/huiyiCourse/detail/783
扫描海报二维码添加小助手,备注:公开课,加入 AI 科技大本营公开课分享交流群,嘉宾 PPT 及整理笔记将在直播结束后在群内公开。