↖  有关人工智能Artificial Intelligence AI的若干认识问题-2..


-loading- -loading- -loading-

2021-08-01 , 2979 , 104 , 169

听音频 🔊 . 看视频 🎦

(接续)

AlphaFold给我们什么启示?
2020年人工智能领域另一个引人关注的成果是将机器学习应用于基础研究。蛋白质结构预测是生命科学领域的重大科学问题,目前已知氨基酸顺序的蛋白质分子有1.8亿个,但其三维结构信息被彻底看清的还不到0.1%。谷歌旗下的DeepMind公司开发的人工智能程序AlphaFold2在2020年11月的蛋白质结构预测大赛CASP 14中,对大部分蛋白质实现了原子精度的结构预测,取得了92.4%的高分。
  这是蛋白质结构预测史无前例的巨大进步。   AlphaFold在方法学和概念理论上没有大的创新,与其他的参赛队一样采用卷积神经网络(CNN)加上模拟退火技术(Simulated Annealing,SA),只是用的资源比较多,   “高算力出奇迹”。但AlphaFold是用人工智能方法做基础科学研究的成功探索,为人工智能扩展了新的研究方向。
  同样在2020年11月,中国和美国的一个联合研究小组获得高性能计算的最高奖——戈登·贝尔奖(Gordon Bell Prize)。长期以来,第一性原理分子动力学只能计算数千个原子,模拟时长在皮秒量级。该团队采用基于深度学习的分子动力学模拟方法,有机地结合传统的高性能计算和机器学习,将分子动力学极限从基线提升到了1亿原子的惊人数量,计算速度提高至少1000倍,与AlphaFold一样,引领了科学计算从传统的计算模式朝着智能超算的方向前进。
  这两项成果的意义在于,深度学习融合了过去的四种科学范式,创造了一种新的科学范式,我称之为   “科学研究第五范式”的雏形。

-loading- -loading--loading-


可能在几年之后,AlphaFold将具备替代实验研究、直接从蛋白质氨基酸序列大批量产生蛋白质三维结构的能力。随着AlphaFold的成熟,人类对蛋白质分子的理解将会有一次革命性的升级。AlphaFold的成功也给我们带来新的困惑:疑难问题的解决越来越不依赖于人类的先验知识,也越来越无法被人类理解。
  这意味着在人工智能时代,人类获取知识的逻辑将要发生根本的变革,对人类认知将产生巨大冲击。机器学习是一种全新的、人类也无法真正理解、但能被实践检验的认知方法论。我们是相信   “实践是检验真理的标准”,还是坚持必须给人讲明白原因才是真理,甚至必须遵循严格的演绎规则才是真理?
  人类将面临困难的选择。   可解释性和通用性是不是当前最重要的研究方向?
可解释性和预测精度是相互矛盾的两个维度,如同高性能和低功耗、通用性和高效率一样,难以得兼。智能应用是多种多样的,不同的应用对可解释性的要求大不相同。即使是对安全性要求很高的应用,需要解释到什么程度也是有区别的,可解释性不应是AI研究的首要目标。
  人类智能本身也是一个黑箱,相比人类大脑的不可解释,人工神经网络也许能解释更多决策的过程。至于深度神经网络的输出究竟是如何形成的,用现有的知识解释每个参数的作用无济于事,需要创立新的理论才能做出解释。实践是检验真理的标准,解释性弱的技术也会延续发展,例如中医。
  对于人工智能,人们最担心的可能不是对   “输出结果是如何产生的”解释不清楚,而是不知道它什么时候会出现错误,比可解释性更重要的是人工智能的防错技术,要有科学依据地将出错率降低到可接受的范围,特别是解决攻击性环境下出错的问题。人工神经网络出现“白痴性”的错误与其高预测性形影相随,可能是本质性的特征,提高可解释性不一定是防止出错的唯一途径,防错研究应该成为人工智能的重要研究方向。

UfqiLong

所谓   “防错研究”是指准确地划定给定的智能程序的应用范围。也就是要获得达到预定目标的必要条件和保证不出错的充分条件。世界上没有包治百病的神药,每种药品上都标注了适应症。
  确定智能应用程序的适用范围应当比药品更严格,当然也意味着更困难。一般而言,模型的复杂度和准确性往往是正相关的关系,而越高的复杂度也意味着模型可能越无法解释。信任黑盒模型意味着不仅要信任模型的方程式,还要信任它所基于的可能有偏见的整个数据库,所以对数据的“偏见性”检查也需要重视。
  可以考虑先训练出庞大、精确的、上百层的深度神经网络,再将深度神经网络压缩成较浅的神经网络,在保证它的准确率的同时提高可解释性。大多数机器学习模型的设计没有可解释的约束条件,目前只是在静态数据集上为准确的预测变量而设计,今后有些应用可考虑增加可解释性的约束条件。可解释性也是分层次的,最严格的可解释性是数学,但要求像数学一样从几条公理出发可能会扼杀人工智能研究。
  通用人工智能是人工智能研究的终极目标。这个目标何时能实现?在对全球23位顶尖人工智能学者的一次调查中,最乐观的专家给出的时间为2029年,最悲观的专家认为要到2200年。
  平均来看,时间点为2099年。   我认为,如果要通过洞察人脑的奥秘实现像人脑一样通用的人工智能,恐怕要到22世纪以后。通过获取足够多的背景知识,让机器具有更丰富的常识,可以逐步提高人工智能系统的通用性,但近期内不必将追求像人脑一样的通用性作为主要研究目标。
  在一个领域内有足够的通用性就有很宽广的应用前景。对于人工智能研究,比最大程度的通用性更紧迫的研究目标包括:应对具体应用复杂环境的鲁棒性和自适应性,智能系统的安全性等。

今年(2021年)6月15日,清华大学发布新闻,我国首个原创虚拟学生   “华智冰”将入学清华大学计算机系,即日起开启在清华大学的学习和研究生涯。此新闻在网络上引起热议,也遭到一些批评。采用虚拟学生的形式测试检验“悟道”超大规模人工智能模型,通过机器学习不断提高虚拟人系统的通用智能水平,原本无可非议。
  但除了采用真人视频代表虚拟机器人引起误导外,关键是清华大学准备在三年左右的时间“培养”出达到大学毕业生智能水平的虚拟机器人缺乏科学依据。日本东京大学的新井纪子教授花了近10年时间,组织上百人的研究队伍,开展“机器人能考上东京大学吗”的研究(这是第五代计算机以后日本最有影响的人工智能研究项目),2020年她写了一本书《当人工智能考上名校》,明确宣布,人工智能还有很多无法超越的障碍,最大的困难是“常识”,仅凭现有人工智能技术不可能考上东京大学。通用智能是人脑的本质特征,在对人脑机制缺乏了解的情况下,短期内对实现像人脑一样通用的人工智能不要抱过高的期望。
  人类也不迫切需要像人一样通用的智能产品。   如果研究通用人工智能,最好制定20~30年研究目标,埋头做长期基础研究,闷声憋大招。短平快的研究不可能解决通用人工智能的难题。
  通用性等价于强人工智能的看法已在学术界流行,现在我只能   “入乡随俗”,勉强接受已经流行的所谓“强人工智能”和“弱人工智能”的分类,但我认为这并不是一种科学合理的分类。我认为,通用性和智能化水平是两个维度,通用性有强弱,智能化水平主要反映在性能和效率上,也有强弱之分。与通用相对的是专用,我们要在扩展应用领域和提高智能化水平两个维度发力。
  强人工智能追求的是智能纵向的深度,通用人工智能追求的是智能横向的宽度。纵向智能、横向智能都没有尽头。新一代人工智能既要朝通用的方向发展,也要朝提高专门领域的智能化水平发展。
  一堆狭义智能的堆砌永远不会成为通用人工智能,“信息整合”是人脑涌现智慧的关键,要高度重视提高机器学习通用性的“迁移学习”。

-loading- -loading--loading-


UfqiLong

美国国防部高级研究计划署(DARPA)的下一代人工智能计划部署了90项应用人工智能、27项高级人工智能和18项前沿探索(比例为9∶3∶2)。90项应用如药品开发、芯片设计等都是弱人工智能,高级人工智能包括可解释性、推理论证、鲁棒性、行为准则、普遍性(通用性)和极端性能6项技术,前沿探索包括有限数据学习(小数据学习)等6个研究方向。此布局以人工智能应用为主,兼顾高端技术和前沿探索,是一种综合考虑近、中、远期需求的全面布局,值得我们借鉴。
 

(待续)

朋友圈的风景:美妙时光美景风光:山河湖水人文城市-3

+人工智能 +解释性 +研究 +通用性 +智能

本页Url

↖回首页 +当前续 +尾续 +修订 +评论✍️


👍19 仁智互见 👎0
  • 还没有评论. → +评论
  • -loading- -loading- -loading-


    🔗 连载目录

    🤖 智能推荐

    -loading- -loading- -loading-

     


    专制独裁统治者为何一定要禁

    中国地方警察异地远洋捕捞式

    网络平台算法典型问题治理

    Elon Musk马斯克发

    + 陈若剑 陈若剑
    AddToFav   
    新闻 经典 官宣