-
2024-10-10...[Src: 新浪微博/饭统戴老板, 2024-10-09. ] 2024年诺贝尔物理学奖获得者Geoffrey Hinton杰弗里·辛顿: 半部人工智能AI史 昨天(2024年10月8日),诺贝尔(Nobel)物理学奖颁给... 239 🈶🖼️
-
2024-05-27...人工智能与智能计算的发展综述-2
二、智能计算发展简介
智能计算包括人工智能技术与它的计算载体,大致历经了四个阶段,分别为通用计算装置、逻辑推理专家系统、深度学习计算系统、大模型计算系统。智能计算的起点是通用自动计算装置(1946年)。(英国人)艾伦·图灵(Alan Tur... 153 -
2021-08-01...(接续)
AlphaFold给我们什么启示?
2020年人工智能领域另一个引人关注的成果是将机器学习应用于基础研究。蛋白质结构预测是生命科学领域的重大科学问题,目前已知氨基酸顺序的蛋白质分子有1.8亿个,但其三维结构信息被彻底看清的还不到0.1%。谷歌旗下的DeepMind公司开发的人工智能程... 169 -
2021-08-01... [编按: 转载于 中国计算机学会通讯, 2021-07. 作者: 李国杰 院士。]
人工智能(AI)自诞生以来就众说纷纭,争议不断。近几年人工智能的高速发展也是在人们乐观与悲观情绪的交织中进行。今后几十年人工智能技术能否健康发展,取决于人们对这一 “头雁”技术的认识。
&... 188 -
2020-07-02...14.视觉计算与蝇视觉相比,人类视觉要复杂得多。果蝇全部神经元约25万个,人类初级视皮层神经元就有2.8亿个,两者差距上万倍,更遑论结构复杂性。但是,视觉的难度在人工智能早期被严重低估。1967年,明斯基宣称,“创建‘人工智能’只需要一代人”。他的同事佩帕特则表示,“计算机联上摄像头,‘描绘它看到什么’这个问题一个暑期... 212
-
2020-07-02...10.仿真大脑仿真大脑的努力可以追溯到20世纪80年代。1972年,美国生物学家杰拉尔德·艾德曼(Gerald Maurice Edelman, 1929-2014)因发现免疫系统抗体的化学结构而获得诺贝尔生理学或医学奖。1978年左右,他转向意识研究。他的基本思想可概括为“神经群体选择理论(neuronal grou... 208
-
-
2020-07-02...8.电脑之路人脑是强人工智能最好的和唯一的参照物。正如欧盟“人类大脑计划(Human Brain Project)”建议报告中指出的[1]:“除人脑以外,没有任何一个自然或人工系统能够具有对新环境与新挑战的自适应能力、对新信息与新技能的自动获取能力、在复杂环境下进行有效决策并稳定工作直至几十年的能力。没有任何系统能够在... 205
-
2020-07-02...6. 深度学习历史进入新世纪。2004年,执着于神经网络研究的杰弗里•辛顿获得加拿大高级研究院(CIFAR)每年50万加元的经费支持,召集为数不多的同道,启动了“神经计算和自适应感知(Neural Computation and Adaptive Perception, NCAP)”项目。2006年,辛顿在《科学》发表... 215
-
2020-07-02...5. 神经网络皮茨和麦卡洛克是神经网络模型的提出者,威廉•沃尔特(William Grey Walter, 1910-1977)则是神经网络实践的先驱,他们都对控制论的创立产生了重要影响。沃尔特是一位神经生理学家,对神经连接何以产生复杂行为十分感兴趣,开发了第一台脑电图仪。与基于计算发展智能不同,沃尔特坚持用纯模拟电路... 209
-
2020-07-02...4.人工智能从1956年在美国达特茅斯学院举行的“人工智能夏季研讨会”(Summer Research Project on Artificial Intelligence)算起,人工智能概念登上历史舞台已经60年了。这次历史性会议如今已成经典,但它的主要发起人当时都是刚入道的“青椒”(青年教师)。主推手约翰•麦卡锡(... 207
-
2020-07-02...2. 冯•诺伊曼的101页草稿几乎与皮茨遇见维纳同时,冯•诺伊曼在1943年9月20日正式来到新墨西哥州的阿拉莫斯参加“曼哈顿计划”,他的原子弹内爆模型需要大量计算。1944年春,哈佛大学的自动程序控制计算器(the Automatic Sequence Controlled Calculator,ASCC,代号Har... 210
-
2020-07-01...工程控制论1950年,准备回国的钱学森被美国政府软禁,被剥夺了做本行研究的权利,他转而研究控制论,憋着气写出了《工程控制论》[10],该书于1954年出版。钱老在序言中开宗明义,认为维纳的控制论是关于怎样把机械元件与电气元件组合成稳定且具有特定性能的系统的科学,讨论的主要问题是一个系统的不同部分之间相互作用的定性性质,... 186
-
-
2019-10-11...5 循环神经网络循环神经网络也被称为时间递归神经网络(Recurrent neural network)在前面讨论的卷积神经网络,无法利用历史数据的时间依赖关系,来分析数据特征,对于二维图像来讲,我们已经知道局部感受视野这种空间信息是识别问题的核心,在另外一些与时间相关的问题中,输入的数据是基于时间的序列,卷积网络就无... 243
-
2019-10-11...4 卷积神经网络1980年,一位法国的大学生Yann LeCun通过《Perceptron》接触到了神经元模型,这种看起来具有智慧的机器让他十分着迷,可是他发现关于神经网络的资料简直少的可怜,实际上,就像我们前面所提到的那样,在60年代已经出现的一个关于多层神经网络如何训练这个重要问题,几乎没多少人研究,更别说解决问题... 240
-
2019-10-11...3.2 受限玻尔兹曼机所谓“受限玻尔兹曼机”(RBM)就是对“玻尔兹曼机”(BM)进行简化,使玻尔兹曼机更容易更加简单使用,原本玻尔兹曼机的可见元和隐元之间是全连接的,而且隐元和隐元之间也是全连接的,这样就增加了计算量和计算难度。“受限玻尔兹曼机”(RBM)同样具有一个可见层,一个隐层,但层内无连接,层与层之间全连接,... 243
-
2019-10-11...1 引子在本系列的2,3,4季中,我们分别介绍了神经网络的生物学背景,最早的关于神经元的数学模型,以及具有学习功能的感知机。我们现在已经知道,如何学习神经网络的参数是最为关键的问题,这个问题从宏观上看实际上跟求解2的平方根并没有本质不同,即需要一个迭代过程(梯度下降)不断更新模型的参数。在一个著名的Adaline模型(... 240
-
2019-10-11...3 生成模型对隐写术的影响3.1 生成模型与生成对抗网络 生成对抗网络是一种利于数据驱动构建生成模型的方法。基于数据驱动的计算机科学被统一称作一个更响亮的名字:机器学习。机器学习本质上就是利用数据(包括原生数据和人类的先验知识)去建立数学模型的一系列方法的总称,这样的模型主要有两类,一类称之为判别... 191
-
2019-10-11...VC 维 由此可见,随着数据n的增长,对数据分类的能力反映了模型的性能。在之前,我们用Shattering Coefficient 即N(F,n)度量模型对数据的分类能力。实际上, 还有另一个更加著名的度量标准,VC维。此概念由Vladimir Vapnik与Alexey Chervonenkis提出。 定义: ... 215
-
-
2019-10-11...现在我们打算忘掉所有关于代价函数的具体形式、神经⽹络的连接等等这些让人望而却步的东西。想象只要最⼩化⼀个给定的多元函数。假设我们要最⼩化某些函数,C(v)。它可以是任意的多元实值函数,这里⽤v代替了w和b以强调它可能是任意的函数,为了可视化, 想象c是⼀个只有两个变量v1和 v2的函数,如下图12所示:"... 169
-
2019-10-10...1957年,罗森布拉特在航空实验室用IBM704计算机仿真了感知机算法。需要说明的是,从这个时候开始,存储程序计算机开始成为实现人工智能的有力工具。1954年推出的IBM704 [8]是一台意义非凡的机器。在它之前,没有计算机拥有能完成浮点运算的硬件。 所有的浮点运算都只能用软件模拟,这是一个相当耗时的过程。... 211
-
2019-10-10...这种延时很重要,延时t时刻,意味着在这个信号可以在逻辑门中存储t时刻,这实际上意味着神经元具有了记忆功能。这种结构其实就是现在的寄存器的原型。类似的神经网络可以实现更复杂一点的电路,例如下图的神经元网络就实现了一个二分频电路,即在时钟每触发2个周期时,电路输出1个周期信号。 以上的这些都来自于麦卡洛克和皮茨在1943年... 217
-
2019-10-10...导言尽管“神经网络”这个词的出现已经有些年头,但是人们并没有对其建立严格的数学符号和形式化的表示,而且神经网络从一开始就不是独立的学科,它来源于生理学,心理学,物理,数学,工程的交叉领域,所以这种交叉使的神经网络的研究看起来有点混乱。特别是现在的“深度学习”,有点急于撇清与神经网络的联系,我将通过对这一段漫长历史的回顾... 222
-
-
本页Url:
-
2024-11-23-18:39 GMT . 添加到桌面浏览更方便.
-