机器学习之卷积神经网络(二)

  • 时间:
  • 浏览:0
  • 来源:大发5分快乐8_大发5分快乐8官方

假设你有十几个 多数据集,它带有了六栋房子的信息。很多,你知道房屋的面积是十几个 平方英尺可能平方米,后会 知道房屋价格。这时,后会我拟合十几个 多根据房屋面积预测房价的函数。

换个话题,你可能知道邮政编码或许能作为十几个 多特征,告诉你步行化程度。比如这俯近是都有角度步行化,你是否能步行去杂货店可能是学校,以及你是否必须驾驶汽车。很多人喜欢居住在以步行为主的区域,另外根据邮政编码还和富裕程度相关(在美国是曾经的)。但在其它国家也可能体现出俯近学校的水平有多好。

值得注意的是神经网络给予了足够多的关于$x$和$y$的数据,给予了足够的训练样本有关$x$和$y$。神经网络非常擅长计算从$x$到$y$的精准映射函数。

以上内容参考安全牛课堂 机器学习与网络安全 第4章节 卷积神经网络

在图上每十几个 多画的小圆圈都并能是ReLU的一帕累托图,也很多 指修正线性单元,可能其它稍微非线性的函数。基于房屋面积和卧室数量,并能估算家庭人口,基于邮编,并能估测步行化程度可能学校的质量。最后你可能会曾经想,那先 决定他们乐意花费十几个 钱。

这很多 十几个 多基础的神经网络。你可能发现你当时人的神经网络在监督学习的环境下是这麼的有效和强大,也很多 说你假若尝试输入十几个 多$x$,即可把它映射成$y$,就好像他们在刚才房价预测的例子中想看 的效果。

让他们来看十几个 多例子,他们不仅仅用房屋的面积来预测它的价格,现在你有了很多有关房屋的其它特征,比如卧室的数量,或许有十几个 多很糙要的因素,一家人的数量也会影响房屋价格,你这俩 房屋能住下一家人可能是四五当时人的家庭吗?而这确实是基于房屋大小,以及真正决定一栋房子是否能适合他们家庭人数的卧室数。

今天继续分享卷积神经网络,常常用角度学习你这俩 术语来指训练神经网络的过程,有时它指的是很糙大规模的神经网络训练。这麼神经网络究竟是那先 呢?他们先来看很多直观的基础知识。

可能这是十几个 多单神经元网络,不管规模大小,它正是通过把那先 单个神经元叠加进去一块儿来形成。可能把那先 神经元想象成单独的乐高积木,就并能通过搭积木来完成十几个 多更大的神经网络。

作为十几个 多神经网络,这几乎可能是最简单的神经网络。他们把房屋的面积作为神经网络的输入(他们称之为$x$),通过十几个 多节点(十几个 多小圆圈),最终输出了价格(他们用$y$表示)。确实你这俩 小圆圈很多 十几个 多单独的神经元。接着网络实现了左边你这俩 函数的功能。

在有关神经网络的文献中,老会 能看得到你这俩 函数:从趋近于零后后后后后后刚开始 ,后会 变成十根直线。你这俩 函数被称作ReLU激活函数,它的全称是Rectified Linear Unit。rectify(修正)并能理解成$max(0,x)$,这都有你得到十几个 多你这俩 特征的函数的愿因。

对于十几个 多房子来说,那先 都有与它息息相关的事情。在你这俩 情景里,家庭人口、步行化程度以及学校的质量都能帮助你预测房屋的价格。以此为例,$x$ 是所有的这5个输入,$y$ 有你尝试预测的价格,把那先 单个的神经元叠加进去一块儿,他们都有了十几个 多稍微大很多的神经网络。这显示了神经网络的神奇之处,确实我可能描述了十几个 多神经网络,它并能必须你得到房屋面积、步行化程度和学校的质量,可能其它影响价格的因素。

可能你对线性回归夹生悉,你可能会说:“好吧,让他们用那先 数据拟合十根直线。”于有你可能会得到曾经十根直线。

神经网络的一帕累托图神奇之居于于,当你实现它后后,我必须做的很多 输入$x$,就能得到输出$y$。可能它并能当时人计算你训练集中样本的数目以及所有的上边过程。很多,实际上要做的很多 :这里有5个输入的神经网络,这输入的特征可能是房屋的大小、卧室的数量、邮政编码和区域的富裕程度。给出那先 输入的特征后后,神经网络的工作很多 预测对应的价格。一块儿也注意到那先 被叫做隐藏单元圆圈,在十几个 多神经网络中,它们每个都从输入的5个特征获得自身输入,比如说,第十几个 多结点代表家庭人口,而家庭人口仅仅取决于$x_1$和$x_2$特征,换句话说,在神经网络中,你决定在你这俩 结点中后会得到那先 ,后会 用所有的5个输入来计算后会得到的。后会 ,他们说输入层和化间层被紧密的连接起来了。

让他们从十几个 多房价预测的例子后后后后后后刚开始 讲起。

但很糙奇怪的是,他们知道价格永远后会是负数的。后会 ,为了替代十根可能会让价格为负的直线,他们把直线弯曲很多,让它最终在零后后后后后后刚开始 。这条粗的蓝线最终很多 他们要的函数,用于根据房屋面积预测价格。有帕累托图是零,而直线的帕累托图拟合的很好。你我知道你认为你这俩 函数只拟合房屋价格。

你现在后会担心不理解ReLU函数,你可能在这门课的上边再次想看 它。