谷歌新研讨探究权重无关神经网络已敞开相关源代码

2019-11-22 13:15:37  阅读:2856+ 作者:责任编辑NO。杜一帆0322

新智元报导

来历:Google TensorFlow

文 / Adam Gaier 学生研讨员 和 David Ha 研讨员

【新智元导读】在“权重无关神经网络”(Weight Agnostic Neural Networks, WANN) 中,谷歌踏出了第一步:运用随机同享权重履行各种使命的神经网络架构。这项作业旨在探究:针对给定使命,当不学习任何权重参数时,神经网络架构编码解决方案的体现怎么。此外,为促进此研讨范畴的沟通,谷歌还开放了相关源代码,以便更多研讨社区可以重现 WANN 试验。来新智元 AI 朋友圈说说你的观念~

无论是图画分类仍是强化学习,在经过练习神经网络来完结一项给定使命时,都需要对神经网络中每个衔接的权重进行调优。

而在创立有用的神经网络时,另一种行之有用的办法是神经架构查找(经过手艺构建的组件,如卷积网络组件或代码块,来建立神经网络架构)。研讨标明,运用这些组件建立的神经网络架构(如深度卷积网络)在图画处理使命方面具有很强的概括偏置(inductive biases),乃至能在随机初始化权重的情况下履行这些使命。这种神经架构查找供给的新办法尽管可用于为当时的使命域组织具有已知概括偏置的人工规划组件,但对主动发现具有此类概括偏置的 新 神经网络架构(用于各类使命域)则体现效果甚微。

注:神经架构查找

https://ai.googleblog.com/2017/05/using-machine-learning-to-explore.html

卷积网络组件

https://ai.googleblog.com/2018/03/using-evolutionary-automl-to-discover.html

随机初始化

https://arxiv.org/abs/1711.10925

咱们咱们可以以这些组件的先天和后天为例进行类比。在生物学范畴,某些早熟性物种 (precocial species) 天然生成具有反捕食行为 (anti-predator behaviors),它们无需学习就能进行杂乱的运动和感官活动。咱们或许能以此构建无需练习就能超卓完结使命的神经网络。明显这些天然物种(类比人工神经网络)经过练习可以进一步强化,但这种即便不学习也能履行使命的才能标明,它们包括很合适这些使命的偏置。

在“权重无关神经网络”(Weight Agnostic Neural Networks, WANN) 中,咱们踏出了专门查找具有此类偏置的网络的第一步:运用随机同享权重履行各种使命的神经网络架构。这项作业旨在探究:针对给定使命,当不学习任何权重参数时,神经网络架构编码解决方案的体现怎么。经过探究此类神经网络架构,咱们提出一种无需学习权重参数就能在其环境中超卓履行使命的智能体。此外,为促进此研讨范畴的沟通,咱们还开放了相关源代码,以便更多研讨社区可以重现咱们的 WANN 试验。

注:权重无关神经网络

https://weightagnostic.github.io/

左图:经人工规划且具有 2760 个权重衔接的全衔接深度神经网络。凭借某种学习算法,咱们咱们可以求解出 2760 个权重参数的调集,使该网络可以履行 BipedalWalker-v2 使命。

右图:仅有 44 个衔接,但可以履行相同 Bipedal Walker 使命的权重无关神经网络架构。不同于全衔接网络,此 WANN 无需练习每个衔接的权重参数便能履行该使命。实际上,为简化练习,此 WANN 只会在每个权重衔接的值相同或同享时 履行使命,即便选用随机采样的同享权重参数也不受影响。

注:BipedalWalker-v2

https://gym.openai.com/envs/BipedalWalkerHardcore-v2/

查找 WANN

咱们从一组最小的神经网络架构候选目标开端(每个候选目标只要很少的衔接),运用完善的拓扑查找算法 (topology search algorithm, NEAT),然后经过逐一增加单衔接和单节点来演化架构。WANN 背面的核心理念是经过弱化权重的重要性来进行架构查找。与传统的将一切权重参数都经过学习算法进行练习得到不同,咱们选用了一种更简略有用的办法。在查找过程中,咱们先在每次迭代时为一切候选架构分配一个同享权重值,然后对其进行优化,以期经过更大规模的同享权值来取得更好的体现。

注:拓扑查找算法

用于查找网络拓扑空间的算子

左图:最小的网络拓扑结构,输入和输出仅部分衔接。

中心图:网络的三种更改办法:

(1) 刺进节点:经过拆分现有衔接刺进新节点。

(2) 增加衔接:经过衔接两个从前未衔接的节点来增加新衔接。

(3) 更改激活:重新分配躲藏节点的激活函数。

右图:支撑的激活函数(线性函数、阶跃函数、正弦函数、余弦函数、高斯函数、正切函数、Sigmoid 函数、反函数、绝对值函数、ReLU 函数)

除了探究各类权重无关神经网络之外,咱们还必须寻觅能满意所需的杂乱网络架构。为此,咱们运用多目标优化 (multi-objective optimization) 技术一起优化网络的功能和杂乱度。

权重无关神经网络查找以及用于查找网络拓扑空间的相应算子概览

练习 WANN 架构

与传统神经网络不同的是,咱们只需找到单个最优功能的最佳同享权重参数,便能轻松练习 WANN。如下例所示,在运用稳定权重履行 swing-up cartpole 使命时,咱们的架构可以发挥必定效果:

注:Swing-up Cartpole 使命

在不同权重参数下履行 swing-up cartpole 使命 WANN,以及运用微调权重参数的 WANN

如上图所示,尽管 WANN 可运用一系列同享权重参数来履行使命,但其功能一般仍无法与学习每个衔接权重的神经网络比较。

假如想进一步提高其功能,咱们咱们可以先运用 WANN 架构和最佳同享权重, 然后像神经网络的惯例练习办法相同, 经过学习算法微调每个衔接的权重。这种先运用网络架构的权重无关特性,然后经过学习微调其功能的办法有助于为研讨动物的学习办法供给有参考价值的类比。

注:动物的学习办法

经过针对功能和网络简略性运用多目标优化,咱们找到了一种适用于像素赛车使命(https://gym.openai.com/envs/CarRacing-v0/)的简略 WANN,该网络无需显式权重练习即可超卓履行使命

运用随机权重的神经网络架构不仅能履行使命,并且还具有其他优势。例如,经过运用相同 WANN 架构的副本,但为 WANN 的每个副本分配不同的权重值,咱们咱们可以为同一使命创立多个不同模型组成的调集。相较于单个模型,此类调集一般具有更好的功能。为证明这一点,咱们给出下方 MNIST 分类器运用随机权重的演化示例:

注:MNIST

http://yann.lecun.com/exdb/mnist/

MNIST 分类器运用随机权重的演化过程

传统随机初始化的网络在 MNIST 上的精度约为 10%,但针对 MNIST,这种运用随机权重的特别网络架构却能完成精度高于随机初始化网络(高于 80%)。当运用 WANN 调集并为其间每个 WANN 分配不同的同享权重时,精度乃至可以升至 90% 以上。

即便不运用调集办法,咱们也可将网络中权重值的数量紧缩为 1,然后可以快速调整网络。在继续的终身学习中,快速微调权重的才能也有助于智能体在整个生命周期内取得、适应和搬运技术。这使得 WANN 特别合适鲍德温效应 (Baldwin effect),这种进化压力会倾向于学习有用行为的个别,防止堕入“学会学习”这个价值昂扬的核算圈套。

注:进化压力

http:///google/brain-tokyo-workshop/tree/master/WANNRelease/prettyNEAT

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!