您当前的位置:亲宝早教网资讯正文

CVPR2020线上共享深度学习不要乘法北大华为Oral论文提出加法神经网络

放大字体  缩小字体 2020-04-15 13:46:11  阅读:5897+ 来源:自媒体作者:机器之心Pro

原标题:CVPR 2020 线上共享 | 深度学习不要乘法?北大、华为Oral论文提出加法神经网络

作为核算机视觉范畴的三大世界顶会之一,CVPR 每年都会招引全球范畴很多专业技术人员参加。如 2019 年,CVPR 注册参会人数高达 9227 人,打破历届记载。其间,来自国内的参会人数就到达 1044 位,仅次于大会举办地美国(4743 位)。

CVPR 2020 原定于 6 月 16 日至 20 日在华盛顿州西雅图的华盛顿州会议中心举办,可是当时全球疫情势态严峻,渐渐的变多的 AI 顶会开端转向线上,CVPR 也不破例。

尽管无法去现场沟通,但这无法阻挠咱们学习的热心。

为向读者们共享更多 CVPR 优质内容,在 CVPR 2020 开幕之前,机器之心将策划多期线上共享。这是机器之心 CVPR 2020 线上共享的第一期,咱们约请到北京大学智能科学系陈汉亭(论文一作)为咱们介绍他们的 Oral 论文《AdderNet: Do We Really Need Multiplications in Deep Learning?》。在此论文中,来自北大、华为诺亚方舟试验室等组织的作者们提出彻底用加法替代乘法,用 L1 间隔替代卷积运算,然后明显削减核算力耗费。

讲演主题:加法神经网络:在深度学习中咱们是否真的需求乘法?

简介:陈汉亭,北京大学智能科学系硕博连读三年级在读,同济大学学士,师从北京大学许超教授,研讨爱好最重要的包含核算机视觉、机器学习和深度学习。在 ICCV,AAAI,CVPR 等会议宣布论文数篇,现在首要研讨方向为神经网络模型小型化。

摘要:和廉价的加法操作比较,乘法操作需求更大的核算量。在深度神经网络中大规模的运用的卷积核算了输入特征和卷积核的互相关,其间包含着很多乘法操作。咱们提出了一种加法神经网络来将 CNN 中的很多乘法操效果加法来替代。详细的,咱们将输出特征运用滤波器和输入特征的 L1 间隔来衡量。经过详尽的剖析,咱们提出了根据全精度梯度的反向传达和自适应学习率来协助加法神经网络的练习。试验结果表明,咱们提出的加法神经网络可以获得和卷积神经网络近似的准确率,并且在卷积层中不含任何乘法。

  • 论文地址:https://arxiv.org/pdf/1912.13200.pdf
  • Github 代码地址:https://github.com/huawei-noah/AdderNet

时刻:北京时刻 4 月 22 日 20:00

CVPR 2020 机器之心线上共享

在 CVPR 2020 录入的很多优秀论文中,咱们将选出数篇优质论文,约请论文作者来做线上共享。整场共享包含两个部分:论文解读和互动答疑。

线上共享将在「CVPR 2020 沟通群」中进行,加群方法:增加机器之心小帮手(syncedai6),补白「CVPR」,约请入群。入群后将会发布直播链接。

小帮手二维码

责任编辑:

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!