大数据AI

机器学习中的贪心算法公式

登录加入知乎

机器学习

深度学习(Deep Learning)

机器学习中的贪心算法公式

深度学习或者机器学习中有哪些算法涉及贪心算法或者动态规划算法的思想?

深度学习中好多算法、但是是否有一些涉及了贪心算法的思想或者动态规划算法呢?梯度下降算法是否涉及贪心算法呢?

164

8,964

关注问题​

邀请回答

好问题 1

添加评论

7 个回答

默认排序

知乎用户

46 人赞同了该回答

像其它好几个答案提到的Viterbi算法就是赤果果的动态规划。如果同时使用束搜索(beam search)就是引入了类似贪心的策略(每一步都贪心的保留一部分当前最好的结果)。这个算法广泛使用在几乎所有序列相关的问题中(比如语音、翻译、股票、基因),典型的包括HMM、CRF、类似HMM的CTC,还有最近的seq2seq。另外对序列化问题打分通常也涉及到插入、删除错误等等,也要使用动态规划加上某种cost function(比如著名的Levenshtein distance)来对准reference序列和hypothesis序列。而序列打分本身又可以集成到类似于贝叶斯风险的准则函数里(这样就可以直接优化最终的目标函数),广泛用于各种模型的训练。

还想到一个动态规划的例子是马尔可夫决策过程(MDP)。MDP在优化方法、增强学习以及对话系统等等有广泛应用。

对于贪心算法,其实跟deep learning的关系更大。首先梯度下降算法是贪心的。然后类似layer-by-layer的pretraining(尤其是discriminative的pretraining)也是贪心的。事实上推广一下,很多传统的分步骤的系统构造方法(一般会利用分而治之的思想),比如语音识别里先提取特征,再在特征基础上训练声学模型也是一种(系统级的)贪心策略,而现在流行的joint training则可以避免这个问题。所以在很多人看来,deep learning本身就包括一个有很多层的模型的training,以及把整个系统的所有模块一起看做一个deep model后的training。另外想到一个典型的例子是决策树,它的每一次节点分裂也都是贪心的。

编辑于 2017-12-05

赞同 46​

添加评论

喜欢收起​

继续浏览内容

发现更大的世界

raningtkyH

Data Science PhD

4 人赞同了该回答

机器学习里面还是有好些模型用到动态规划,贪心的。比如graphical model里面HMM belief propagation用到了viterbi算法。

深度学习里面,确实不太看到。像深度学习这样minimize 一个目标函数的模型,不是一个通过枚举可以解决的问题,所以我猜测也不需要动态规划或者贪心算法来解决。我倒是有看到paper通过深度学习做些近似来解决贪心动态规划解决不了的问题。

发布于 2017-12-03

赞同 4​

添加评论

喜欢收起​

继续浏览内容

发现更大的世界

Xinran He

….

3 人赞同了该回答

deep learning中最基本的back propagation就是动态规划啊

发布于 2017-12-04

赞同 3​

5 条评论

喜欢收起​

继续浏览内容

发现更大的世界

匿名用户

6 人赞同了该回答

最近写论文的时候,好多人邀请我回答问题,不知道怎么回事,以前闲的时候怎么没人邀请我回答过问题。。

言归正传,题主想问的是机器学习or深度学习中有哪些算法涉及到贪心u或者动态规划的思想。

回答这个问题先得弄明白,贪心和动态规划的思想是什么,我算是数值算法和离散算法都接触了一些吧。

DP的思想是解决一个问题的时候,将这个问题分解成若干个子,最后组合子问题的解。

贪心的思想类似DP,不用的地方是,在组合子问题的解的时候,贪心只需要考虑某一个子问题即可。

那深度学习or机器学习中有没有涉及到类似的算法呢。机器学习里面就太多了,各种图模型在涉及到inference的时候都会涉及到这些思想,我来说一说深度学习里面相关的吧。

1)梯度下降

梯度下降本身采用导数的链式法则求得某一个变量的梯度的时候,这个问题是可以分解成求得跟这个变量相关的变量的梯度的子问题来解决。

梯度下降算法本身是为了求得损失函数的最小值,但显然梯度下降只能求得这个函数的局部极小值。采用局部极小值代替最小值本身就是贪心的思想。

2)序列标注

在做序列标注的时候,往往是整个序列一起分类。那这个时候需要求的整个序列的条件概率值,为解决这个问题,会将此问题分解为求某一个label的概率值相关的一些子问题,然后使用维特比即DP解决

3)Seq2Seq

这个模型在decode的阶段也涉及到概率最大的序列。BeamSearch算法本身有贪心和DP的思想在里面。

4)信念网络

Hinton在训练深度信念网络的时候就是采用的贪心策略进行训练的呀。

还有很多很多,我就不一一列举了,要滚去写论文了。

编辑于 2017-12-04

赞同 6​

1 条评论

喜欢收起​

继续浏览内容

发现更大的世界

匿名用户

1 人赞同了该回答

在隐马尔可夫模型的预测算法中,计算最短路径的维特比算法就是动态规划算法,

在XGBoost系统中,在构建树模型时,对特征进行分裂进而对树进行分枝,这个寻找最佳分裂点的步骤中就运用了贪心算法。

这两个算法的介绍都可以在我的专栏文章中找到。欢迎关注。

发布于 2017-12-05

赞同 1​

添加评论

喜欢收起​

继续浏览内容

发现更大的世界

Your time is limited.

1 人赞同了该回答

了解一下强化学习,进门就是动态规划和贪心算法这哥俩了。。

bp是贪心算法,不是动态规划。

每一次迭代并没有求解子问题的最优解,而是选择了当前情况的最优解(梯度更新策略)

编辑于 2018-02-01

赞同 1​

添加评论

喜欢收起​

继续浏览内容

发现更大的世界

知乎用户

灵魂阿赖耶识 人工智能自我意识与情感 感知理解反思处境行为 学习记忆推理建模 博弈非完整信息 盲人画家

灵魂阿赖耶识 人工智能自我意识与情感 感知理解反思处境行为 学习记忆推理建模 博弈非完整信息 盲人画家

西安交通大学教授郑南宁:人工智能的下一步是什么?―中国教育和科研计算机网CERNET

西安交通大学教授郑南宁:人工智能的下一步是什么?

2016-12-15 中国教育网络

院士谈信息领域的颠覆性技术

编者按:

10月25~26日,“国际工程科技发展战略高端论坛——信息领域的颠覆性技术”在西安开幕,百余名国内外院士、专家出席,现场听众近700人。本次论坛的主题是“信息领域的颠覆性技术”。论坛由中国工程院主办,西安交通大学、中国工程院信息与电子工程学部共同承办,是中国工程院信息学部最重要的年度学术活动。本届论坛设置主题演讲、分论坛两大环节,26位专家将各自研究领域所获得的杰出成就发表演讲,研究范围涉及人工智能、认知计算、人机交互、云计算、知识自动化、机器人、大数据、虚拟现实、集成电路、高性能计算、空天一体化信息网络、计量检测等领域。撷取部分与会嘉宾的精彩观点与读者一起分享。

郑南宁:人工智能的下一步是什么?

郑南宁:中国工程院院士、西安交通大学电信学院教授

随着2006年Hinton等人提出深度学习概念,人工智能研究进入了崭新的发展时期,也不断地影响、推进着相关众多产业、行业的快速发展。人工智能“精彩回归”,重新受到学术界、产业界等社会各界的广泛关注。

人工智能是研究人类智能活动的规律,构造具有一定智能的人工系统,使机器能够像人一样思维和认知。当前人工智能的研究前沿之一是如何实现由完整信息到非完整信息的处理,构建更加健壮的人工智能,使人工智能系统对用户错误、目标偏差、错误模型以及未建模对象具有更好的适应性。无人驾驶就是一种典型的非完整信息处理问题。

由于我们不可能为所有的问题建模,“未知的未知”问题对构建稳健的人工智能系统提出了挑战。为了设计更加健壮的人工智能,需要采用稳健优化、学习因果模型和组合模型等方法来提高人工智能建模问题的稳健性。

要设计更加健壮的人工智能,首先要提升对于模型错误的稳健性,对风险敏感的目标进行优化,采用稳健推理的算法,如采取谨慎的策略提升应对建模错误情况下的鲁棒性;其次,需提升对于为建模问题的稳健性,扩充模型、学习因果模型、采用组合模型监测模型表现以检测异常等。

从人工智能的研究来看,我们长期以来坚持两个目的:一是如何使机器更加聪明,二是如何用机器模拟人的智能,同时能够发展出更聪明的机器帮助人类更好地发展。从人的角度来思考,建立一种智能系统需要以下基本的因素:它必须要适应我们的世界,要具备学习的能力,同时需要有记忆能力,在学习记忆的基础上完成推理,另外在推理的过程中还必须建立一种因果模型。

直觉推理可以看成两个方面:一个是物理层面的推理,就是可以跨越时间尺度给出判断和情景演变的过程;另一个是心理层面的推理。无人驾驶车事故的例子,说明无人驾驶车是在非完整信息下出现的问题。如何在不完整信息下让机器做出正确判断,使得机器具有推理和自主学习的能力,这样的过程是健壮的人工智能能够实现的。

人的认知过程,在很多场合下是从全局到局部的,在大量先进知识的前提下,往往是一种自上而下的过程。我们做了一个让计算机实现对人体运动进行分析的实验,并选择了乐团的指挥。乐团的指挥实际上是乐团的灵魂,在乐团演出中每一个人都要按照指挥的动作把曲子用自己演奏的乐器表达出来。通过身上的标记点把指挥的动作通过摄像机模拟出来,把一个指挥家的动作合成以后,我们让机器来指挥。

人工智能是一门综合性的前沿学科和交叉学科,其发展与信息科学、认知科学、神经生物学、心理学、数学等学科深度融合。发展人工智能要做到“两手抓”,即一方面要踏踏实实积极推进人工智能的基础理论研究,另一方面要重视人工智能在重大学科领域和重大工程中的实践应用。开展科学研究的目的是造福人类,但在历史进程中,科学技术也曾被别有用心者利用而阻碍了社会发展,甚至给人类带来灾难。

实现类人水平的人工智能还需要迎接哪些挑战?一是如何让机器在没有人类的帮助下学习,二是如何让机器像人类一样感知和理解世界,三是如何让机器具有自我意识、情感以及反思自身处境与行为的能力。使机器具有自我意识和反思能力是类人智慧最难的挑战,无论对科学和哲学来说,这都是一个引人入胜的探索领域。

未来三十年,人工智能将在计算能力、人工智能系统等方面催生颠覆性技术,其研究成果将在社会管理、国防、生命健康、金融、能源、农业、工业等众多领域大放光彩,人工智能也将迎来新的发展高潮。未来,人工智能将渗透到人们生活中的各个角落,成为人们生活中不可或缺的组成部分。

(本文根据郑南宁在“国际工程科技发展战略高端论坛”上的讲话整理,未经本人确认)

=-===========================================================================

中国工程院院士郑南宁:人工智能发展应明确方向

中国工程院院士郑南宁:人工智能发展应明确方向_人工智能,机器,挑战,智能制造及工业4.0-中国智能制造网

2016年06月21日 11:32:28中国智能制造网人气:30906

[中国智能制造网 名家论谈]不久前,围棋软件“阿尔法围棋”战胜围棋世界冠军李世石,让人们惊叹人工智能发展取得的成就。这是否意味着机器即将获得类人智能呢?现在得出这样的结论还为时过早,但确实需要思考人工智能的发展方向问题。

中国工程院院士郑南宁:人工智能发展应明确方向

当前,人工智能在发展中面临三大挑战。

第一大挑战是让机器在没有人类教师的帮助下学习。人类的很多学习是隐性学习,即根据以前学到的知识进行逻辑推理,以掌握新的知识。然而,目前的计算机并没有这种能力。

迄今为止,最成功的机器学习方式被称为“监督式学习”。与老师教幼儿园孩子识字一样,机器在每次学习一项新技能时,基本上都要从头开始,需要人类在很大程度上参与机器的学习过程。要达到人类水平的智能,机器需要具备在没有人类过多监督和指令的情况下进行学习的能力,或在少量样本的基础上完成学习。也就是说,机器无须在每次输入新数据或者测试算法时都从头开始学习。

[修行人解读 人类的学习能力依据唯识学,关键是阿赖耶识种子依,人类的学习能力是存在于人的整个生命体的灵命之中。后天的教育与学习,不是人类学习能力的全部,否则不能解释莫扎特8岁就可以作曲,并且8是的作品一直流传至今,不断演奏而具有生命的感召力。也许随着科学的发展,阿赖耶识的种子依,也会被人类证明。人工智能现在只是被动的监督式学习,达不到主动地隐性学习,更谈不到阿赖耶识种子的流转]

第二个挑战是让机器像人类一样感知和理解世界。触觉、视觉和听觉是动物物种生存所必需的能力,感知能力是智能的重要组成部分。在对自然界的感知和理解方面,人类无疑是所有生物中的佼佼者。如果能让机器像人类一样感知和理解世界,就能解决人工智能研究长期面临的规划和推理方面的问题。虽然我们已经拥有非常出色的数据收集和算法研发能力,利用机器对收集的数据进行推理已不是开发先进人工智能的障碍,但这种推理能力建立在数据的基础上,也就是说机器与感知真实世界仍有相当大的差距。如果能让机器进一步感知真实世界,它们的表现也许会更出色。要达到人类水平的智能,机器需要具备对自然界的丰富表征和理解能力,这是一个大问题。尽管围棋很复杂,让计算机在棋盘上识别最有利的落子位置也很难,但与精确地表征自然界相比,描述围棋对弈的状态显然要简单得多,两者之间的差距还要几十年甚至更长时间才能弥合。

[修行人解读 人类之所以具有感知和理解世界的能力,首先是人类文明4万年以来发展与进化的结果。在印尼的原始森林的存在的原始部落,由于他们与现代社会存在数千年的隔绝,原始部落的人群的感知和理解的世界,就与现代社会人群感知和理解的世界大大不同,原始部落抛弃吃人的高尚习俗还是近30年的事情。

所以,对于人类为何具有的感知和理解世界的能力,是属于人类意识与灵魂的范畴,作为科学家的院士,有此犯下凡重大失误也是可以理解。郑南宁,男,汉族,1952年12月生,祖籍陕西西安,出生于江苏南京。1975年毕业于西安交通大学电机工程系;1981年西安交通大学获工学硕士学位。毕竟院士的生活的年代与社会环境背景是那样的。

但是院士对于人类的博弈与计谋,还是有深刻的认知。尽管围棋很复杂,让计算机在棋盘上识别最有利的落子位置也很难,但与精确地表征自然界相比,描述围棋对弈的状态显然要简单得多,两者之间的差距还要几十年甚至更长时间才能弥合。]

第三个挑战是让机器具有自我意识、情感以及反思自身处境与行为的能力。这是实现类人智能最艰难的挑战。具有自我意识以及反思自身处境与行为的能力,是人类区别于其他生物最重要、最根本的一点。另外,人类的大脑皮层能力是有限的,如果将智能机器设备与人类大脑相连接,不仅会增强人类的能力,而且会使机器产生灵感。让机器具有自我意识、情感和反思能力,无论对科学和哲学来说,都是一个引人入胜的探索领域。

[修行人解读 人工智能具有人类自我意识,是完全不可能的。人类的自我意识,是因为人类与宇宙生命体是一体的。人类至今都无法解读意识的机理,今后也解读不了。灵命与灵魂问题,是一个远远超越人类本身的哲学问题,也是人类的终极问题。

世界,也许就是一个宇宙大生命的模拟的、梦幻的镜像,宇宙的本体在哪里呀?这是一个不是人工智能的科学院士,可以回答的问题。]

人工智能的发展能不断帮助人类,但它同时也是一把“双刃剑”。我们要警惕人工智能给人类带来的负面影响,关注人工智能的发展将带来的深刻伦理道德问题。我们需要的是帮助人类而不是代替人类的人工智能。发展人工智能的目的不是把机器变成人,也不是把人变成机器,而是要扩展人类的智能,解决人类社会发展面临的重大问题。这是科学界、各国政府和人类社会在人工智能发展上应认真对待的问题。需要确立伦理道德的约束监督机制,使人类免受人工智能不当发展带来的负面影响。(来源:人民日报 原标题:中国工程院院士郑南宁:发展有助于人类的人工智能)

文章链接:中国智能制造网 http://www.gkzhan.com/news/detail/88302.html

============================================================================

郑南宁:发展强人工智能需从脑认知和神经科学寻求启示

郑南宁:发展强人工智能需从脑认知和神经科学寻求启示-新闻-科学网

当前,人工智能已经成为席卷社会各界的热潮。今年7月,国务院印发了《新一代人工智能发展规划》,一系列支持政策和措施正在逐步推进。在日前在济南举办的2017中国自动化大会上,中国工程院院士郑南宁向记者表示,当前,人工智能渗透到了社会各个领域,但目前来看,无论是深度学习还是其它方法,解决的都是单一问题,而人类大脑是一个多问题求解的结构,“当前急需发展强人工智能,而这可以从脑认知和神经科学中得到启示”。

郑南宁指出,人类面临的许多问题都具有不确定性、脆弱性和开放性。今天人工智能的理论框架,建立在演绎逻辑和语义描述的基础方法之上,但我们不可能对人类社会所有问题都进行建模,因为我们不能把一个行为的所有条件都模拟出来,这就是传统人工智能的局限性。

“因此,我们要建造一种更加健壮的人工智能,需要脑认知和神经科学的启发”,郑南宁指出,计算机和人类大脑是为问题求解的物质基础。在智力和计算能力方面,计算机远远超过了人类,但是人类面对的大部分问题都是开放的、动态的、复杂的,大脑在处理这种问题时表现出的想象和创造,还有对复杂问题的分析和描述,是传统人工智能方法所不能企及的,因此,我们只能从人类大脑的神经网络结构中,去获得构造新的人工智能的因素。

郑南宁介绍,人类大脑非常奇妙,正是在这个物质基础之上,才演义出人类世界的发展和为问题求解的各种方法,“大脑不是通过一个统一的、未分化的神经网络,来实现单一的全景优化学习。大脑是模块化的,具有独特且相互作用的系统来支持认知功能,如记忆、注意、语言和认知控制。脑认知和神经科学的研究成果,可以为解决人工智能长期存在的规划与推理问题提供新的方法”。

郑南宁进一步介绍,人的大脑有800亿个神经元容量。我们可以通过大脑的结构连接、功能连接和有效连接的聚合与分离来洞察大脑的认知机理,“大脑的结构连接是相对静态的,而功能连接和有效研究则具有时空动态演化的特性。有效连接描述了神经元之间的因果与相互影响关系”。

“直觉推理、认知推理和因果模型是构建健壮的人工智能必须考虑的基本因素”,郑南宁最后表示。

=========================================================================

[解读新一代人工智能规划]郑南宁院士:混合增强智能——协同与认知

[解读新一代人工智能规划]郑南宁院士:混合增强智能——协同与认知

2017-08-04 16:06人工智能/操作系统/人类

人工智能是一种引领许多领域产生颠覆性变革的使能技术,合理并有效地利用人工智能技术,意味着价值创造和竞争优势。为抢抓人工智能发展的重大战略机遇,依托我国应用需求和市场的巨大优势,加快建设创新型国家和世界科技强国,在党中央、国务院统一部署和要求下,《新一代人工智能发展规划》(以下简称规划)对我国人工智能发展战略做了全面部署,明确了我国人工智能发展的总体要求及三步走的战略目标,并将人机协同的混合增强智能作为规划部署的五个重要方向之一。

智能机器与各类智能终端已经成为人类的伴随者,人与智能机器的交互、混合是未来社会的发展形态。人机协同的混合增强智能是新一代人工智能的典型特征。

当前的人工智能系统在不同层次都依赖大量的样本训练完成有监督的学习。真正的通用智能会在经验和知识积累的基础上灵巧地无监督学习。如果仅仅是利用各种人工智能计算模型或算法的简单组合,不可能得到一个通用的人工智能。特定领域的人工智能系统如谷歌的Alpha Go、IBM的深蓝和Watson等依赖强大的计算能力在挑战人类智力方面取得了巨大进步,但这些系统还无法通过自身思考得到更高层次的智能,它们与具有高度自主学习能力的通用人工智能依然存在着差距。但是,人工智能在这些特定领域应用的巨大成功为我们研究与发展新一代人工智能提供了重要的借鉴和新的方法。

人类面临的许多问题具有不确定性、脆弱性和开放性,也是智能机器的服务对象和最终“价值判断”的仲裁者,因此,人类智能与机器智能的协同是贯穿始终的。任何智能程度的机器都无法完全取代人类,这就需要将人的作用或认知模型引入到人工智能系统中,形成混合-增强智能形态,这种形态是人工智能或机器智能的可行的、重要的成长模式。

混合增强智能形态可分为两种基本实现形式:人在回路的混合增强智能,基于认知计算的混合增强智能。

一、人在回路的混合增强智能

将人的作用引入到智能系统中,形成人在回路的混合智能范式。在这种范式中人始终是这类智能系统的一部分,当系统中计算机的输出置信度低时,人主动介入调整参数给出合理正确的问题求解,构成提升智能水平的反馈回路。

把人的作用引入到智能系统的计算回路中,可以把人对模糊、不确定问题分析与响应的高级认知机制与机器智能系统紧密耦合,使得两者相互适应,协同工作,形成双向的信息交流与控制,使人的感知、认知能力和计算机强大的运算和存储能力相结合,构成“1+1 2”的智能增强智能形态。

在当前大数据、深度学习在不同领域不断取得突破性成果之际,更需要清楚认识到,即使为人工智能系统提供充足、甚至无限的数据资源,也无法排除人类对它的干预。例如,面对人机交互系统中对人类语言或行为的细微差别和模糊性的理解,特别是将人工智能技术应用于一些重大领域(如产业风险管理、医疗诊断、刑事司法、自主驾驶、社会舆情分析、智能机器人等)时,如何避免由于人工智能技术的局限性而带来的风险、失控甚至危害?这就需要引入人类的监督与互动,允许人参与验证,提高智能系统的置信度,以最佳的方式利用人的知识,最优地平衡人的智力和计算机的计算能力,从而实现大规模的非完整、非结构化知识信息的处理,有效避免由于当前人工智能技术的局限性而引发的决策风险和系统失控等问题。

二、基于认知计算的混合增强智能

在人工智能系统中引入受生物启发的智能计算模型,构建基于认知计算的的混合增强智能。这类混合智能是通过模仿生物大脑功能提升计算机的感知、推理和决策能力的智能软件或硬件,以更准确地建立像人脑一样感知、推理和响应激励的智能计算模型,尤其是如何建立因果模型、直觉推理和联想记忆的新计算框架。

对当前人工智能而言,解决某些对人类来说属于智力挑战的问题可能是相对简单的,但是解决对人类来说习以为常的问题却非常困难。例如,很少有三岁的孩童能下围棋(除非受过专门的训练),但所有的三岁孩童都能认出自己的父母,且不需要大量经过标注的人脸数据集的训练。人工智能研究的重要方向之一是借鉴认知科学、计算神经科学的研究成果,使计算机通过直觉推理,经验学习将自身引导到更高层次的。

另外,在现实世界中,人们无法为所有问题建模,这里存在条件问题(Qualification Problem)和分支问题(Ramification Problem),即不可能枚举出一个行为的所有先决条件,也不可能枚举出一个行为的所有分支。而人脑对真实世界环境的理解、非完整信息的处理、复杂时空关联的任务处理能力是当前机器学习无法比拟的,还有人的大脑神经网络结构的可塑性,以及人脑在非认知因素和认知功能之间的相互作用,它们是形式化方法难以、甚至不能描述的。人脑对于非认知因素的理解更多的来自于直觉,并受到经验和长期知识积累的影响。人脑所具有的自然生物智能形式,为提高机器对复杂动态环境或情景的适应性,以及非完整、非结构化信息处理和自主学习能力,为构建基于认知计算的混合-增强智能提供了重要启示。

认知计算架构可以将复杂的规划、问题求解与感知和动作模块相结合,有可能解释或实现某些人类或动物行为以及他们在新的环境中学习和行动的方式,可以建立比现有程序计算量少得多的人工智能系统。在认知计算的框架下,可以构建更加完善的大规模数据处理和更多样化的计算平台,也可为多代理系统解决规划和学习模型的问题,以及为新的任务环境中的机器协同提供新的模式。

人工智能追求的长期目标是使机器能像人一样感知世界和解决问题。当前的人工智能已不是一个独立、封闭和自我循环发展的智能科学体系,而是通过与其他科学领域的交叉结合融入到人类社会进化的过程中,并将深刻改变人类社会生活,改变世界。

[修行人解读 人类之所以具有感知和理解世界的能力,首先是人类文明4万年以来发展与进化的结果。在印尼的原始森林的存在的原始部落,由于他们与现代社会存在数千年的隔绝,原始部落的人群的感知和理解的世界,就与现代社会人群感知和理解的世界大大不同,原始部落抛弃吃人的高尚习俗还是近30年的事情。

所以,对于人类为何具有的感知和理解世界的能力,是属于人类意识与灵魂的范畴,作为科学家的院士,有此犯下凡重大失误也是可以理解。郑南宁,男,汉族,1952年12月生,祖籍陕西西安,出生于江苏南京。1975年毕业于西安交通大学

Similar Posts

发表评论

邮箱地址不会被公开。 必填项已用*标注