比可微架构搜索DARTS快10倍,第四范式提出优化NAS算法

来源:QQ快报
责任编辑:鲁晓倩
字体:

朋友圈做微商的确实不少,我也从朋友那边买过个别产品,但是给我的感觉是产品质量其实一般,在网上也能买到更质优价廉的,所以之后就不再光顾朋友的微店了,再然后,朋友的店就不是出单不出单的问题,而是做不下去的问题了我想提三点,你参考下看看;必须保证质量,是真货,而且是经得起检验对比考量的;价格方面虽然不说必须比网上的同类产品便宜多少,最起码要相差无几,可能这样做你的赚头少,但是量大之后就好了在宣传的时候一定记得一句话,己所不欲勿施于人,你自己不愿意用这个产品,那么也不可能指望别人用的;如果你自己就很相信认可自己的产品,不单单自己用,还给自己最亲的人最好的朋友用,那么自然会起到很好的宣传效果;所以,做微商一定要选对产品,不要太计较利润,可以多走量,广交朋友多铺路,祝你生意兴!www.vw-sh.com防采集请勿采集本网。

机器之心发布

登陆过于频繁遭到了系统的拦截,限制了登录或功能。解决方法如下: 进入客服中心:http://kf.qq.com ,在搜索栏处输入【微信】再点击搜索。如下图所示: 在进入微信产品专区下面点击【微信解除

作者:Quanming Yao ,Ju Xu,Wei-Wei Tu,Zhanxing Zhu

快速微信朋友圈里找到别人几天前发的东西,并复制的方法:进入对方的相册查找,然后复制。工具原料:手机,微信。操作步骤: 1、打开微信通讯录界面,点击好友头像。2、在详细资料界面点击个人

神经架构搜索一直被认为是高算力的代表,尽管可微架构搜索的概念非常吸引人,但它目前的效率与效果仍然不尽人意。在最近的 AAAI 2020 中,第四范式提出了一种基于临近迭代(Proximal Iterations)的 NAS 方法,其速度比 DARTS 快了 10 倍以上。

十几分钟的视频只能发上群或者个人,发朋友圈不能超过10秒

神经架构搜索(NAS)因其比手工构建的架构更能识别出更好的架构而备受关注。近年来,可微分的搜索方法因可以在数天内获得高性能的 NAS 而成为研究热点。然而,由于超级网的建设,其仍然面临着巨大的计算成本和性能低下的问题。

在本文中,我们提出了一种基于近端迭代(NASP)的高效 NAS 方法。与以往的工作不同,NASP 将搜索过程重新定义为具有离散约束的优化问题和模型复杂度的正则化器。由于新的目标是难以解决的,我们进一步提出了一种高效的算法,由近端启发法进行优化。

通过这种方式,NASP 不仅比现有的可微分的搜索方法速度快,而且还可以找到更好的体系结构并平衡模型复杂度。最终,通过不同任务的大量实验表明,NASP 在测试精度和计算效率上均能获得更好的性能,在发现更好的模型结构的同时,速度比 DARTS 等现有技术快 10 倍以上。此外,NASP 消除了操作之间的关联性。

论文:https://arxiv.org/abs/1905.13577

代码:https://github.com/xujinfan/NASP-codes

此外,在 WWW 2020 的论文」Efficient Neural Interaction Functions Search for Collaborative Filtering」中,我们将 NASP 算法应用到了推荐系统领域:

视频:https://www.tuijianxitong.cn/cn/school/video/26

PPT:https://www.tuijianxitong.cn/cn/school/openclass/27

论文:https://arxiv.org/pdf/1906.12091

代码:https://github.com/quanmingyao/SIF

走向极速的神经架构搜索

深度网络已经应用到许多应用中,其中,适当的体系结构对于确保良好的性能至关重要。近年来,NAS 因可以找到参数更少、性能更好的网络成为了关注和研究的热点,该方法可取代设计架构的人类专家。

NASNet 是这方面的先驱性工作,它将卷积神经网络(CNN)的设计为一个多步骤决策问题,并用强化学习来解决。

然而,由于搜索空间离散且巨大,NASNet 需要数百个 GPU 耗费一个月的时间,才能获得一个令人满意的网络结构。后来,通过观察网络从小到大的良好传输性,NASNetA)提议将网络分割成块,并在块或单元内进行搜索。然后,识别出的单元被用作构建块来组装大型网络。这种两阶段的搜索策略极大地减小了搜索空间的大小,从而使进化算法、贪心算法、强化学习等搜索算法显著加速。

尽管减少了搜索空间,但搜索空间仍然是离散的,通常很难有效搜索。最近的研究集中在如何将搜索空间从离散的变为可微分。这种思想的优点在于可微空间可以计算梯度信息,从而加快优化算法的收敛速度。

该思想已经衍生出了各种技术,例如 DARTS 平滑了 Softmax 的设计选择,并训练了一组网络;SNAS 通过平滑抽样方案加强强化学习。NAO 使用自动编码器将搜索空间映射到新的可微空间。

在所有这些工作中(Table 1),最为出色的是 DARTS [1],因为它结合了可微分以及小搜索空间两者的优点,实现了单元内的快速梯度下降。然而,其搜索效率和识别体系结构的性能仍然不够令人满意。

由于它在搜索过程中保持超级网,从计算的角度来看,所有操作都需要在梯度下降过程中向前和向后传播。从性能的角度来看,操作通常是相互关联的。例如,7x7 的卷积滤波器可以作为特例覆盖 3x3 的滤波器。当更新网络权值时,由 DARTS 构造的 ensemble 可能会导致发现劣质的体系结构。

此外,DARTS 最终的结构需要在搜索后重新确定。这会导致搜索的体系结构和最终体系结构之间存在偏差,并可能导致最终体系结构的性能下降。

更快更强的临近迭代

在此次工作中,第四范式提出了基于临近迭代算子算法(Proximal gradient Algorithm [2])的 NAS 方法(NASP),以提高现有的可微搜索方法的效率和性能。我们给出了一个新的 NAS 问题的公式和优化算法,它允许在可微空间中搜索,同时保持离散的结构。这样,NASP 就不再需要训练一个超级网,从而加快搜索速度,从而产生更优的网络结构。

该工作的贡献在于:

除了以往 NAS 普遍讨论的搜索空间、完备性和模型复杂度之外,该工作确定了一个全新且重要的一个因素,即 NAS 对体系结构的约束;

我们将 NAS 描述为一个约束优化问题,保持空间可微,但强制架构在搜索过程中是离散的,即在反向梯度传播的时候尽量维持少量激活的操作。这有助于提高搜索效率并在训练过程中分离不同的操作。正则化器也被引入到新目标中,从而控制网络结构的大;

由于这种离散约束难以优化,且无法应用简单的 DARTS 自适应。因此,第四范式提出了一种由近端迭代衍生的新优化算法,并且消除了 DARTS 所需的昂贵二阶近似,为保证算法的收敛性,我们更进一步进行了理论分析。

最后,在设计 CNN 和 RNN 架构时,使用各种基准数据集进行了实验。与最先进的方法相比,提出的 NASP 不仅速度快(比 DARTS 快 10 倍以上),而且可以发现更好的模型结构。实验结果表明,NASP 在测试精度和计算效率上均能获得更好的性能。

具体算法如下:

在第三步中,我们利用临近迭代算子产生离散结构;再在第四步中更新连续的结构参数(单步梯度下降,无二阶近似);最后,我们在离散的网络结构下,更新网络权重。

实验结果

该工作利用搜索 CNN 和 RNN 结构来进行实验。此次试验使用 CIFAR-10、ImageNet、PTB、WT2 等四个数据集。

CNN 的架构搜索

1. 在 CIFAR-10 上搜索单元

在 CIFAR-10 上搜索架构相同,卷积单元由 N=7 个节点组成,通过对单元进行 8 次叠加获得网络;在搜索过程中,我们训练了一个由 8 个单元叠加的 50 个周期的小网络。这里考虑两个不同的搜索空间。第一个与 DARTS 相同,包含 7 个操作。第二个更大,包含 12 个操作。

与最新的 NAS 方法相比,在相同的空间(7 次操作)中,NASP 的性能与 DARTS(二阶)相当,比 DARTS(一阶)好得多。在更大的空间(12 个操作)中,NASP 仍然比 DARTS 快很多,测试误差比其他方法更低很多。

在以上实验中,研究人员对模型复杂度进行了正则化,我们设置了的η=0。结果显示,模型尺寸随着η的增大而变小。

2.迁移到 ImageNet

为了探索实验中搜索到的单元在 ImageNet 上的迁移能力,我们将搜索到的单元堆叠了 14 次。值得注意的是,NASP 可以用最先进的方法实现竞争性测试误差。

RNN 的架构搜索

1. 在 PTB 上搜索单元

根据 DARTS 的设置,递归单元由 N=12 个节点组成;第一个中间节点通过线性变换两个输入节点,将结果相加,然后通过 tanh 激活函数得到;第一个中间节点的结果应为由激活函数转换而成。

在搜索过程中,我们训练了一个序列长度为 35 的 50 个阶段的小网络。为了评估在 PTB 上搜索到单元的性能,使用所发现的单元对单层递归网络进行最多 8000 个阶段的训练,直到与批处理大小 64 收敛。实验结果显示,DARTS 的二阶比一阶慢得多,NASP 不仅比 DARTS 快得多,而且可以达到与其他最先进的方法相当的测试性能。

模型简化测试

1. 对比 DARTS

实验给出了更新网络参数(即 w)和架构(即 A)的详细比较。在相同的搜索时间内,NASP 可以获得更高的精度,且 NASP 在相同的精度下花费更少的时间。这进一步验证了 NASP 比 DARTS 效率更高。

2. 与同期工作比较

实验中也加入了与同期工作的比较。ASAP 与 BayesNAS 将 NAS 作为一个网络修剪问题,该工作删除了在搜索过程中无效的操作。ASNG 和 GDAS 都对搜索空间进行随机松弛,区别在于 ASNG 使用自然梯度下降进行优化,而 GDAS 使用 Gumbel-Max 技巧进行梯度下降。此次实验将 NASP 与这些工作进行比较,实验表明,NASP 更有效,可在 CNN 任务上提供更好的性能。此外,NASP 还可以应用于 RNN。

[1]. Liu, H.; Simonyan, K.; and Yang, Y. DARTS: Differentiable architecture search. In ICLR 2019

[2]. Parikh, N., and Boyd, S. Proximal algorithms. Foundations and Trends in Optimization 2013

本文为机器之心发布,转载请联系本公众号获得授权。

------------------------------------------------

加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com

投稿或寻求报道:content@jiqizhixin.com

广告 & 商务合作:bd@jiqizhixin.com

方法/步骤1:打开微信,点击右上方的加号→收知付款方法/步骤2:进入页面后,点击下方的【二维码收款道】方法/步骤3:然后点击【保存收款码】微信的收款码就保存好了,接下来保存支付宝的收款码方法/步骤4:打开支付宝,专点击页面上的【收钱】方法/步骤5:接着点击【保存图片】这样,支付宝的付款码也保存好了方法/步骤6:接着,我们打开微信,在搜索栏搜索【芝麻收款】,并进入【芝麻收款服务】方法/步骤7:进入公众号后,点击左下方的【收款合并】方法/步骤8:点击【马上属合并】方法/步骤9:上传刚刚保存的微信和支付宝的收款码,最后点击【马上合并】即可内容来自www.vw-sh.com请勿采集。

声明:以上内容并不代表本网赞同其观点。如有任何问题,请与不良与违法信息举报中心联系:513175919@qq.com。

www.vw-sh.com true http://www.vw-sh.com/q/20200212/20200212A0BAFY00.html report 0
娱乐时尚
  • 支付宝收款码和微信收款码怎么合并成为一个二维码?
  • 做微商怎么才能快速出单
  • 为什么微信添加朋友显示“您的回复太快了请休息一下稍后再试”?
  • 怎么查看陌生人微信朋友圈的10张照片?
  • 登录微信的时候提示 你操作频率过快,请稍候重试 是怎么回事 重新下个微信分身版也上不去
  • 怎样快速微信朋友圈里找到别人几天前发的东西,并复制
  • 怎么通过微信发十几分钟的视频?
  • 在微信附近搜索附近人 看到一些妹纸距离差不多。上面写着400一次 去一个什么酒店到了后给她电话。
  • 历史文化
    真视界
    旅游美食
    精彩图文
    我爱我车
    母婴健康
    关于本站 | 广告服务 | 手机版 | 商务合作 | 免责申明 | 招聘信息 | 联系我们
    Copyright © 2004-2018 book1234.com All Rights Reserved. 布客网 版权所有
    京ICP备10044368号-1 京公网安备11010802011102号
    北京快乐8 广西快3| 斗牛棋牌| 棋牌游戏| 我爱小品网| 天天棋牌|