↖  理解计算:从根号2到AlphaGo ——第3季 神经网络的数学模型-2..


-loading- -loading- -loading-

2019-10-10 , 196 , 0 , 151

听音频 🔊 . 看视频 🎦

这种延时很重要,延时t时刻,意味着在这个信号可以在逻辑门中存储t时刻,这实际上意味着神经元具有了记忆功能。这种结构其实就是现在的寄存器的原型。

类似的神经网络可以实现更复杂一点的电路,例如下图的神经元网络就实现了一个二分频电路,即在时钟每触发2个周期时,电路输出1个周期信号。


以上的这些都来自于麦卡洛克和皮茨在1943年合著的那篇A Logical Calculus of the Ideas Immanent in Nervous Activity [6]即《神经活动中内在意识的逻辑演算》,简称《逻辑演算》.

任性的是,这篇文章注明的参考文献只有卡尔纳普的《语言的逻辑句法》(皮茨据说也是很快就看完并做了大量笔记,这让卡尔纳普印象深刻)、希尔伯特和阿克曼的《数理逻辑原理》,以及怀特海和罗素的《数学原理》,但是论文中他们却说:“图灵机能够计算的数也能够被这样的网络所计算……这就从心理学的角度,论证了图灵关于可计算性的定义”。

很明显,1936年阿兰图灵发表的创世之作《On Computable Numbers, with an Application to the Entscheidungsproblem》(论数字计算在决断难题中的应用)一定也对麦卡洛克产生了影响,更从一个角度反映出图灵是多么伟大,他几乎是从纯数学的角度出发,构思出一种将计算和自动化联系起来的机器,后人称之为“图灵机”。

带有回路的神经网络.webp

图3 带有回路的神经网络[4]


二分频神经网络[4]及其(b)波形仿真.webp

图4 (a)二分频神经网络[4]及其(b)波形仿真


实际上,直到20世纪之前,人们普遍认为,所有的问题类都是有算法的就像我们在本文第一季看到的求解根号2[7]一样,人们的计算研究就是找出算法来。

然而,20世纪初的时候,许多问题已经过长期研究仍然找不到算法,即它们是不可计算的。

尽管有很多人(哥德尔,丘奇)已经表明了凡“算法可计算函数都是一般递归函数”(你可以不用理解它),但是图灵创造性的把计算归结为最简单、最基本、最确定的机械动作,执行这些机械动作的机器就是图灵机,并得出结论:“那些算法可计算的问题就是这种自动机能计算的问题”。


遗憾的是,我们现在仍然不能区分哪些问题是可计算的,哪些问题是不可计算的。

但是将计算和自动化机器联系起来的思想使得图灵被公认为“计算机科学之父”。

然而,由于图灵机本身只是一个构想,麦卡洛克和皮茨的工作验证了通过神经元表示的逻辑门实现计算是一条切实可行的方法。

这个方法为被称为“计算机之父”的冯诺伊曼去实现真正意义上的计算机提供了几乎唯一可以借鉴的思路。


在我们所学的大学计算机文化基础课程中,唯一让你印象深刻的可能就是“第一台通用计算机ENIAC是由宾西法尼亚大学发明的“,发明人莫克利(JohnW.Mauchly)和艾克特(J.PresperEckert)估计你也记不起来。

这台机器更具有象征意义,它跟我们现在的计算机,差别很大,它竟然采用了十进制进行计算,而且每次计算不同的问题,需要几个操作员花几周的时间重新连接电线和开关!1945年6月,冯诺依曼撰写了一份历史性文件《EDVAC报告书的第一份草案》(First Draft of a Report on the EDVAC),这是第一份公开发表的关于存储程序概念的二进制计算机器——现代计算机。

他建议计算机应该以皮茨和麦卡洛克的神经网络为模型,并且用真空电子管代替神经元作为逻辑门,这些逻辑门按照神经网络的方式组织起来就可以进行任何计算了。

更为关键的是,为了使得程序本身能够像输入的数据一样保存起来(避免重新连接线路),他还建议计算机必须有另外一样新东西:内存,他说:需要一种「一个自激发元素将保持这种激发状态」的结构,其实这就是皮茨和麦卡洛克论文中出现的神经元构成的回路所产生的作用:记忆。这篇奠定了到目前为止所有计算机逻辑结构的EDVAC报告只有一篇参考文献:麦卡洛克和皮茨的《逻辑演算》。


在《逻辑演算》的原始论文中,延时门,或门和与门分别表示为下图的(a)(b)(c)。这个图据说是麦卡洛克的女儿绘制的[3]。

《逻辑演算》中的逻辑门.webp

图 5 《逻辑演算》中的逻辑门[6]


我们大多数学习计算机的人,老师总会教导我们计算机本身就是0,1构成的,不管软件还是硬件,但是大家(特别是有软件工程背景的人)经常忽略的是在计算机中,时序电路的引进,才使得存储程序这一设计能够实现。


1943年,莱特文将皮茨带到了维纳在MIT的办公室,简单的交流就使得这位控制论的创始人认为皮茨「毫无疑问是我见过的最厉害的科学家。」

-loading- -loading--loading-


[1]对于皮茨这个连高中都没有毕业的流浪儿来说,维纳承诺给予皮茨MIT的数学博士学位,并邀请皮茨到MIT与他一起工作。

UfqiLong

就算在那个被称之为“控制论学家“的圈子里面(维纳,冯诺依曼,麦卡洛克、莱特文),皮茨也是他们中的天才。维纳让皮茨继续改进他的神经网络,皮茨怀疑对于一个初始的随机的神经网络而言,”随着长时间对神经元阙值的调整,这种随机性会渐渐让位于有序性,而信息就涌现出来了“[1]。

他着手用统计力学来为这个过程建模。维纳激动地鼓励他,他知道如果将这样一个模型植入一台机器的话,它就将能够「学习」[1]。

这段描述简直就是现在深度学习所做的一切。但是对神经元的调整这件事当时还不能自动进行,这件事还必须等到1957年感知机出现的时候。

实际上,为了更加清楚地了解这一点,麦卡洛克和皮茨的神经元模型还可以被描述成下面的图形:

神经元的结构图.webp


图6 神经元的结构图


这种表示与现在神经网络中的表示几乎没什么差别了,图(a)表示神经元从外界获得输入x1,…xn 通过箭头表示的突触,传给神经元,神经元的输出是oj,图 (b)则更进一步将箭头表示的突触根据不同的性质以及强度,为神经元输入增加了一个加权和,这使得一些输入对神经元的脉冲输出产生更大影响,图(c)则将通过增加一个阈值函数将“全或无“法则引入到神经元结构中,图c得神经元结构可以表示为如下的公式:

eq6.PNG

其中,y表示神经元的输出,E表示神经元获得外界刺激的和,T表示神经元设定的阈值,I表示抑制性突触,它起到的作用就是图2中非门的那个控制信号。当我们精心挑选权值参数W,阈值T,以及控制信号I的话,就能让神经元实现逻辑运算了,例如:

设T=2,I=0,W1=1,W2=1, 

那么 E=x1W1+x2W2=x1+x2

当x1=1,x2=1,E=1+1=2,   触发y=1
当x1=1,x2=0,E=1+0=1,   不触发y=0
当x1=0,x2=1,E=0+1=1,   不触发y=0
当x1=0,x2=0,E=0+0=0,   不触发y=0

这就实际上实现了x1和x2之间的“逻辑与“运算。


这个模型看起来威力无穷,但是一个最关键的问题是必须依靠人去精心设计参数的值以完成某项计算功能,自动化的过程并不彻底。

如果神经网络的结构和参数都能根据不同的任务自动确定,这样构建的机器被认为具有学习功能。

然而,如何仅仅自动化的选择参数,使得单个神经元具有学习能力一直到 罗森布拉特的感知机才提出解决办法,我们已经知道,这个办法跟求解根号2几乎没区别,但是感知机的重要性是不言而喻的。

如果能够自适应地组建神经网络的结构,人工智能可能将取得大进展。


实际上,由于网络本身就是一个带权的图,图理论与神经网络的结合几乎是不可避免的事情,特别是包含逻辑推理关系(知识)的图模型与神经网络的结合更加吸引人。

在最近的一个报告中[8], 27位学者(其中22位来自AlphaGo的东家DeepMind),对这种可能性进行了阐述。

沿这个方向继续下去并取得重大成果的话,可能将为人工智能开创一个比现如今的深度学习更加完善的基础。


现在还是回到历史中,我们需要花点时间总结一下麦卡洛克和皮茨发明的神经计算模型的历史地位了。这个现在被称之为MP模型(McCulloch-Pitts Model)的东西被现代的人们忽略了,它最少在三个方面产生了重要影响:

首先,将生理学关于神经的研究进展带入到数学领域,并与逻辑学相结合,直到现在,也有很多人认为,为了使机器具有智能必须回归对神经科学或者大脑的研究,麦卡洛克和皮茨绝对是这个领域的第一人。

另外,你可以坚定的认为MP模型催生了现代计算机科学的诞生,并使得这个科学从一开始就分成两个部分,一部分借鉴他们的由神经元构成的神经网络实现逻辑计算,同时也为存储程序设计带了最原始的参考,MP模型为图灵机和现代的存储程序计算机之间建立了一个至关重要的桥梁,为后来复杂的计算机硬件体系结构带来了最初的灵感。

另一方面,由于这个神经网络的参数无法实现真正的学习,从皮茨开始,就有一些研究者开始致力于让神经网络自动学习,它构成了当前机器学习或人工智能研究的半壁江山(谦虚地说)。

当前,在很多机器学习课上,老师们都会强调机器学习的编程范式与传统的基于过程的编程完全不一样,实际上,就是从皮茨开始,就注定了两者完全不在一个层次上。


传统的计算机硬件或软件编程大都还是与MP方法一样,需要人为地设置参数或者可能的情况,机器学习则不太一样,它他希望机器能像人一样,从环境的刺激(数据)中学习一个模型来应对环境的刺激,这个模型最早的例子就是感知机。

-loading- -loading--loading-


UfqiLong

通过这些资料的学习和整理,我逐渐清晰地看到, MP模型和感知机实际上代表了计算机科学发展的两条不同路径。

以MP为背景的计算机体系强调计算与存储(记忆),以感知机为开端的思想则强调学习。


故事进入尾声,控制论的创始人,性格怪异不讨人(罗素,香农等)喜欢的维纳成就了皮茨,但是维纳的性格预示着皮茨在他身边也是危险的,更别说维纳身边有一个纳粹背景的妻子。

玛格丽特·维纳从各方面讲都是一个有控制欲的、保守的假正经。

由于后来一个偶然的机会,麦卡洛克也来到MIT和皮茨一起在维纳手下工作。


突然有一天,维纳告诉麦卡洛克,皮茨和莱特文:“所有我和你们项目之间的联系被永久性的解除了“。此后他再也没有同皮茨说过话,也不告诉他为什么。

一种说法是[2,3]玛格丽特受不了麦卡洛克疯子般的自由生活习惯(麦卡洛克会写诗,并到处炫耀),造谣说麦卡洛克手下的几个男孩勾引了维纳的宝贝女儿。

还有一种说法[3]是”精神有缺陷的维纳已经无法捕捉麦卡洛克言语表达中的细微差别。

有些时候,维纳分辨不出麦卡洛克是在陈述一件事实还是在说一个猜想”。


维纳和麦卡洛克以及皮茨突然地决裂对控制论遭受很大损失,皮茨则遭受了最大的打击,几乎完全垮掉,他开始酗酒,甚至自己合成类似鸦片的化学物质作为下酒菜,他毁掉了他的研究成果和博士论文,拒绝接受任何帮助。

在给麦卡洛克写下一封”这一切都让我感到极度悲哀”的信[1]。

不久,1969年5月14日,沃尔特·皮茨在剑桥的寄宿之家孤独死去,死因是长期酗酒导致的肝硬化出血。

这个从小就开始流浪的大男孩一生没有得到过任何一个正式的文凭,但是他依然不愧是计算科学史上一颗耀眼的明星。

四个月后,麦卡洛克也过世了。

能让我们感到欣慰的是,从小孤苦伶仃的皮茨一生中能遇到麦卡洛克,他也是幸运的。皮茨从麦卡洛克那里得到了他需要的一切:”认同、友谊、「智识」上的另一半以及他从未有过的父爱” [1]。


麦卡洛克和皮茨实际上为控制论带来了最有力的证据,也为维纳带去了信心。

控制论的核心思想几乎可以在麦卡洛克和皮茨的工作中体现。

第一,控制,指的是系统能够与环境交互继而改变环境的能力,实际上任何一种能够接收环境数据,并进行输出的东西,都可称之为控制,神经元或神经网络就是典型代表。

第二,反馈,指的是能够使用过去的性能来调整未来行为的一种属性,在神经元上,环状的链接,就是一种反馈,甚至你可以回到我们在本文第1季的求解根号的流程[7],用错误反馈给系统,以指导下一步计算的结果。


控制论的目标实在太过宏大,当时对很多学科产生了非常重要的影响,然而现在这种影响力正在减退。遗憾的是,为维纳《控制论》思想贡献巨大的麦卡洛克和皮茨甚至都没能出现在维纳的自传里,想想作者是维纳,你应该可以理解。

现在,麦卡洛克和皮茨也被后人称为控制论学家,这对维纳来说,实在是有点讽刺。甚至是最新的一本关于控制论历史的科普读物《机器崛起:遗失的控制论历史》[5]中竟然连皮茨都没有提到,不知道维纳是否于心有愧,他肯定不知道“原来随便错手,可毁了人一世”。


神经元模型的创立者皮茨是不幸的,遗憾的是,感知机的发明人弗兰克· 罗森布拉特(Frank Rosenblatt)也几乎一样不幸。


参考文献

[1] 陨落的天才-皮茨和他违背的逻辑,人工智能名人堂第25期

[2] 尼克,人工智能简史 人民邮电出版社,2017.12.

[3] Charles Petzold,图灵的秘密:他的生平、思想及论文解读 杨卫东 , 朱皓 (译者)

[4]  Harry Fairhead,   The McCulloch-Pitts Neuron, https://www.i-programmer.info/ babbages-bag/325-mcculloch-pitts-neural-networks.html

[5] 期马斯·瑞德 , 机器崛起:遗失的控制论历史, 机械工业出版社,2017

[6] Pitts, Walter. A logical calculus of the ideas immanent in nervous activity.  Neurocomputing: foundations of research. MIT Press, 1988:115-133.

[7] twinlj77,理解计算:从√2到AlphaGo ——第1季 从√2谈起,https://blog.csdn.net/SIGAI_CSDN/article/details/80886538

[8] Peter W. Battaglia, Jessica B. Hamrick, Victor Bapst, Alvaro Sanchez-Gonzalez, Vinicius Zambaldi, Mateusz Malinowski, Andrea Tacchetti, David Raposo, Adam Santoro, Ryan Faulkner, Caglar Gulcehre, Francis Song, Andrew Ballard, Justin Gilmer, George Dahl, Ashish Vaswani, Kelsey Allen, Charles Nash, Victoria Langston, Chris Dyer, Nicolas Heess,Daan Wierstra, Pushmeet Kohli, Matt Botvinick, Oriol Vinyals, Yujia Li, Razvan PascanuRelational inductive biases, deep learning, and graph networks. https://arxiv.org/abs/1806.01261  


朋友圈的风景:美妙时光美景风光:山河湖水人文城市-24

+神经网络 +逻辑 +洛克 +计算机 +图灵

本页Url

↖回首页 +当前续 +尾续 +修订 +评论✍️


👍22 仁智互见 👎0
  • 还没有评论. → +评论
  • -loading- -loading- -loading-


    🔗 连载目录

    🤖 智能推荐

    +
    AddToFav   
    新闻 经典 官宣