第318章 神经网络(2 / 3)

划,然后将其嵌入本能之中。

既然他记忆宫殿内部,有一枚即将诞生的ai芯片,那为何不一条路走到直,顺势把法术应答也开发出来?

而这里就要绕回到最初的的问题。

机器处理1+1,那可以碾压世间万物。

但是机器要知道怎么选择法术,就需要经过漫长路了!

光是一个自动驾驶,让机器来取代人类进行驾驶,就耗费了无数厂家的心血,至今依旧在l2徘徊着。

什么是机器学习?

换个简单的说法——

人:1+1=?

机:5

人:1+2=?

机:7

人:3+2=?

机:10

无数次后……

人:1+1=?

机:2。

所谓人工智能。

有多少人工,便有多少智能。

曾经有人距离过一个芒果的例子。

比方要挑选芒果,却又不知道什么样子的芒果好吃,便需要先尝遍所有芒果,然后总结了深黄色的好吃,此后再买自己选择深黄色即可。

而机器学习,便是让机器先尝一边所有芒果,让机器总结出一套规律。

这里的人,需要的便是描述给机器每一个芒果的特征,从颜色大小再到软硬,最终让它输入好吃与否。

剩下的则等机器学习出一套规则,判断“深黄色”芒果好吃。

这个学习过程,便是机器学习,而神经网络便是最为热门的机器学习法。

林奇重新秉心静气,走到记忆宫殿的书架之上,默默翻开最初的书籍。

进度跳的太快,让他不得不赶紧加班加点钻研起接下来的学识,他就像是一位油烧开了才刚开始翻菜谱的厨子。

情况虽然有些万分火急,却又冥冥中有着一种注定。

曾经的阿尔法狗,利用的算法便是蒙特卡洛算法与神经网络算法,而神经网络学习对于所有搞机器学习的都是绕不开的壁垒。

这也是林奇需要快速啃掉的知识点。

此时的他正坐于牢笼之中,内心别无他物地在泥泞的地面上推演起来,丝毫没有顾忌上面的污秽与沙土,仿佛这便是一副宽屏的黑板供他进行演算。

神经网络,顾名思义来自人类的神经元。

基本上经过高中的生物学教学也大多能理解神经元的原理,它中间是一个球形细胞体,一头是细小而繁盛的神经纤维分支,学名树突。

另一头是单独一根长长的突起纤维,学名轴突。

神经元的作用便是各个树突接收到其他神经元细胞发出的电化学信号刺激,这些脉冲相互叠加之后,一旦最终的强度达到临界值,便会让这个神经元细胞启动,随后朝着轴突发送信号。

而轴突通过细胞膜内外的纳钾离子交换让膜电位发生变化,使得整个电信号不衰减地传递下去。

最终这些信号传递到其他的轴突与树突,再激发他们产生信号,成为二级神经元。

像人类的视觉系统,便是通过1亿3千万光感受细胞接受光信号,在通过120万节细胞轴突将信息从视网膜传递到大脑,形成了三维图形。

而机器学习,便是要教给计算机,怎么把它接受的输入结果和我们想要的输出结果关联起来。

诸如看到一张图片,它能够理解这便是我们需要的数字1.

而这依赖的便是感知器,这也是名为神经网络的原因。

感知器,本身便是模拟神经细胞,原先的生物学名词都有了对应的新名字——

权量(突触)、偏置(阈值)及激活函数(细胞体)。

机器无法理解一副图片,但是它可以把图片翻译为“像素点阵”,然后这些点阵以0与1输入。

林奇默默在地面上化了一个初中生熟悉的xy坐标轴,同时在上面点出了(1,1)(-1,1)(-1,-1)(1,-1)这四个左边,它们连接起来便是一个正方形,而这四个左边分别坐落在四个象限。

机器学习需要的便是让机器知晓诸如(2,2)这种应该算作哪一个象限?

这便需要神经网络算法的“分类”作用。

这里输入是一个(2,2)的坐标,它是一个1乘2的矩阵,这是输入层。

设定50个神经元,所以它便是一个1乘50的矩阵,这是隐藏层。

而结果1-4象限,则是一个1乘4的矩阵,这是输出层。

根据线性代数的知识,可以知道矩阵之间是能够沟通的,所以一个输出层的1乘4矩阵可以用最初的1乘2输入层矩阵表达。

这其中的操作,便在于为这个矩阵运算添加激活层以及输出正规化,再通过交叉熵损失来量化当前网络的优劣,最后再进行参数优化。

这个过程所需要的便是反复迭代。

重新走完这个过程后,林奇也不禁感慨地叹息数分。

他还记得大学的毕业论文课题,当时都是由各个导师根据自己的专业范围制定题目,然后再由学生们报名选择。

当时林奇选的慢了,最后剩下的都是若干不好啃的“算法题”。