今天给各位分享人工智能会超越人类的知识,其中也会对人工智能会超越人类的原因进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!
本文目录一览:
人工智能是否有可能超越人类?
按现在的科技这样发展下去,人工智能是有可能超越人类的。
1956年夏季,在美国达特茅斯学院举行的一次重要会议上,以麦卡赛、明斯基、罗切斯特和申农等为首的科学家共同研究和探讨了用机器模拟智能的一系列问题。
首次提出了“人工智能”这一术语,它标志着人工智能这门新兴学科的正式诞生。此后,人工智能在发展历史上经历了多次高潮和低潮阶段。
在1956年人工智能被提出后,研究者们就大胆地提出乐观的预言,达特茅斯会议的参与者之一赫伯特·西蒙(herbert simon)还做出了更具体的预测:10年内计算机将成为国际象棋冠军,并且机器将证明一个重要的数学定理。
西蒙等人过于自信,其预言没有在预测的时间里实现,而且远远没有达到。这些失败给人工智能的声誉造成重大伤害。
1971年,英国剑桥大学数学家詹姆士(james)按照英国政府的旨意,发表了一份关于人工智能的综合报告,声称“人工智能研究就算不是骗局,也是庸人自扰”。
在这个报告的影响下,英国政府削减了人工智能的研究经费,解散了人工智能研究机构。人工智能的研究热情第一次被泼了冷水。
20世纪90年代,以日本第五代机器人研发失败和神经网络一直没有突破为代表,人工智能进入了第二个冬天。
直到21世纪初,深度学习与互联网大数据结合才使人工智能又一次迎来新的春天。在阿尔法围棋等大量突破性成果涌现之后,人类对机器(ai)能否超越人类的问题又重新燃起了热情。狂热的情绪背后甚至产生了人工智能威胁论。
谷歌技术总监、《奇点临近》的作者雷·库兹韦尔(ray kurzweil)预言人工智能将超过人类智能。他在书中写道,“由于技术发展呈现指数级增长,机器能模拟大脑的新皮质。
到2029年,机器将达到人类的智能水平;到2045年,人与机器将深度融合,那将标志着奇点时刻的到来。”除此以外,支持人工智能威胁论的代表人物还包括著名物理学家霍金、微软创始人比尔·盖茨、特斯拉ceo马斯克等。
2014年12月2日,霍金在接受bbc采访时表示,运用人工智能技术制造能够独立思考的机器将威胁人类的生存。霍金说:“它自己就动起来了,还能以前所未有的超快速度重新设计自己。人类呢,要受到缓慢的生物进化的限制,根本没有竞争力,会被超越的。”
特斯拉ceo马斯克对待人工智能的态度比较极端,2014年8月,他在推特上推荐尼克·波斯特洛姆的著作《超级智能:路线图、危险性与应对策略》时写道:“我们需要重点关注人工智能,它的潜在危险超过核武器。”
2017年10月,日本著名风险投资人孙正义在世界移动大会2017上表示,他认为机器人将变得比人类更聪明,在大约30年的时间里,ai的智商将有望超过1万点。相比之下,人类的平均智商是100点,天才可能达到200点。
孙正义说:“奇点是人类大脑将被超越的时刻,这是个临界点和交叉点。人工智能和计算机智能将超越人类大脑,这在21世纪肯定会发生。我想说的是,无须更多的辩论,也无须更多怀疑。”
在人工智能威胁论热度日益高涨的情况下,人工智能领域的科学家对人工智能威胁论提出了反对意见。2014年4月,脸书人工智能实验室主任,纽约大学计算机科学教授杨立昆在接受《波普杂志》采访时发表了对人工智能威胁论的看法。
他认为人工智能的研究者在之前很长的一段时间都低估了制造智能机器的难度。人工智能的每一个新浪潮,都会经历这么一段从盲目乐观到不理智最后到沮丧的阶段。
杨立昆提出:很多人觉得人工智能的进展是个指数曲线,其实它是个s形曲线,s形曲线刚开始的时候跟指数曲线很像,但由于发展阻尼和摩擦因子的存在,s形曲线到一定程度会无限逼近而不是超越人类的智商曲线。
未来学家们却假设这些因子是不存在的。他们生来就愿意做出盲目的预测,尤其当他们特别渴望这个预测成真的时候,这可能是为了实现个人抱负。
人工智能会超过人类吗?
:随着人工智能的飞速发展,很多人都在担忧人工智能是否会超越人类、甚至毁灭人类,比如像特斯拉的ceo埃隆.马斯克认为也许只有人看到人工智能在街上杀人的时候,才会意识到这个问题的严重性。很多人对这个问题都有自己的答案,但是他们的答案也许只是因为他们的直觉,而真正的原因恐怕连他们自己也不清楚,比如有的人可能会说因为自己觉得未来人工智能会有自主学习的能力,所以人工智能会超越人类,而另一类人也许会说因为人工智能也是由人制造的,所以不会超越人类。一般人这么思考问题也许不能算错,但是作为一名it人,必须学会用工程的思维来思考问题,而不是靠自己的直觉,本篇文章就带大家了解一下吴军老师是如何用工程的思维论证这个问题的:
图灵机是什么?
图灵博士被认为是神一样的人。在20世纪,全世界智力水平可以和爱因斯坦平起平坐的人恐怕只有图灵和冯.诺依曼两个人了(而后者被认为的智力甚至超越了爱因斯坦)。在上个实际30年代中期,图灵在思考三个问题:
1.世界上是否所有的数学问题都有明确的答案?
2.如果有明确答案,是否可以通过有限步骤的计算得到答案?
3.对于那些有可能在有限步骤计算出来的数学问题,能否有一种假想的机械,让它不断运动,最后当机械停下来的时候,那个数学问题就解决了?
图灵思考问题的这个方法后人称之为图灵机,是一个数学模型。今天所有的计算机,包括全世界正在设计的计算机,从解决问题的能力来讲,都没有超出图灵机的范畴。
人工智能的边界在哪里?
解释完图灵机,我们可以回到最初的问题了,人工智能的边界在哪里?
其实给出图灵思考问题的答案就可以得到结论了:
世界上有很多问题,其中只有一小部分是数学问题
在数学问题中,只有一小部分是有解的
在有解的问题中,只有一小部分是理想状态的图灵机可以解决的
在后一类问题中,又只有一部分是今天实际的计算机可以解决的
而人工智能可以解决的问题,又只是计算机可以解决问题的一部分
吴军老师把这个问题画成了一张图:
这里写图片描述
至此,我们应该可以得到问题的答案了:
人工智能所能解决的问题只是世界上的很小一部分。对于人工智能来讲,个人觉得现在世界没有解决的问题太多,无论是人还是机器(其实是背后编写程序的人),都应该想办法解决各种问题,而不是杞人忧天,担心人工智能这个
人工智能会不会取代人类
人工智能会超越人类吗?
“2045年,当计算机智能超越人类。”在库兹韦尔著作《奇点临近》中译本的封页上写着这样一句话。这本书是2005年的畅销书,如今算来,离库兹韦尔预测的时间还有30年。 这一个预测结果得自库兹韦尔的加速回报定律 (lawofacceleratingreturns),该定律认为人类 社会 是加速发展的,一个更加发达的 社会 本身具备的继续发展的能力也更强, 按照这条定律,2000年的发展速度是20世纪平均发展速度的5倍,人类在21世纪的进步又将是20世纪的1000倍。而这一切试图让人们相信奇点正在临近,技术将以近乎无限的速度发展。“从弱人工智能走向强人工智能可能需要几十年,从强走向超甚至有人预测是两年,最长的预测时间也是30年。大家都同意从强到超会变得非常快,如果失控,在强的阶段就会出现,到人工智能会超越人类了超就彻底失控。《超体》虽然是幻想人脑的开发,但露西发展的过程恰恰是强人工智能到超人工智能过程的一个图解。一旦越过了界限,知识会迅速膨胀。这部电影跟现在关于脑科学、人工智能的想象关系非常密切。”上海交通大学 科技 史与科学文化研究院院长江晓原说。
智能超越,的确会破坏人类的安全感,毕竟智能是人类站上食物链顶端的重要凭恃。江晓原和穆蕴秋博士刚刚翻译完成的《nature杂志科幻小说选集》,其中有10来篇涉及人工智能,故事结局大多荒唐,字里行间透着隐忧。“ 西方做科幻与做前沿的人之间似乎形成一种不成文的规定,科幻专门用来对研究的内容质疑, 想象其发展所带来的一些不好的未来。在nature上的小说作者都是很入流的,都是跟着西方现在的科幻潮流在写。”以此反观,对于人工智能的担忧似乎并非空穴来风。
这种担忧,大概可以分为三个层面:第一层是技术上的滥用、技术缺陷对人类 社会 造成伤害人工智能会超越人类;第二种是哲学层面的担忧,即人对技术过于依赖,把所有事情都交给计算机决策,人类丧失主体地位,更丧失生活的意义;第三层是最为可怕的,人工智能变坏,在意识的驱动下伤害人类,这更像是《终结者》中的场景。
电影《终结者5》
人工智能会超过人类智能吗?这种争论在学界一直存在。坚持人工智能不能超越人类的人不在少数,依据是人工智能是人造物,是在不断模拟人类,模拟者怎么会超越被模拟者?
“这种想法的论据都是站不住脚的。”江晓原说,“没有任何一条定理证明被创造的东西不能超过造物主,现实生活中反而有很多相反的例子,比如孩子比父母聪明,就非常典型。虽然目前还在讨论人工智能能不能通过图灵测试,离超过人类还差得太远,但那种认为人工智能永远不能超过人类的想法我不赞成。”他认为,这类东西的问题在于技术的突破是不可知的,突破也有可能很快就到来。
反驳“不会超越说”的一个重要依据是机器强大的升级能力,离我们生活最近的例子就是电子邮箱中根据收件人习惯,筛除垃圾邮件的程序。这一点曾是霍金提出警示的重要原因,他担心,一旦发展出相当于或者超越人类智慧的人工智能技术,它就会脱离控制,以不断加快的速度重新设计自己。但是人类受到缓慢生物进化的限制,无法与其竞争,甚至可能最终被超越。库兹韦尔也在书里写道:一旦人工智能达到人类的水平,它一定会很快超越人类水平,因为它会把人类智能的力量和非生物展现出来的智能(包括速度、内存容量、知识共享)结合在一起。机器学习是人工智能学习人类智能的重要方式,通过大样本的数据、信息让计算机从中发现学习知识经验、自动改进计算机算法。美国辛辛那提大学智能维护中心主任李杰认为人工智能的确有学习能力,但那属于程式里的学习,不会跳到程式之外,人工智能只能在指定领域升级。“不要忘了,人工智能里都有一个核心东西叫软件,软件不会自己思考,一定是人编程的。”
目前人工智能在模拟人类智能上还存在诸多障碍,这让很多人相信终结者的出现还非常遥远。
比如 现阶段让机器学习人类的知识就不容易。这种学习有个困境——计算机学到的知识未必是人类全部的知识。 李杰认为, 人在自身智慧的基础上学习别的智慧的功能,就不能被机器复制 。“比如人会因为某一条信息醍醐灌顶,人类称之为灵感,灵感是精神上的、无形的、不能编程的。我认为,机器可以取代知识,可以慢慢帮助人类做决策,但是灵感是其无法实现的,灵感是由人的智慧(wisdom)跟个人的精神所造成的一种很即时的冲击,无法量化描述,而机器是以目标为准。当以目标为准时,比如在打字速度、翻译速度、计算能力上,人脑的确竞争不过电脑,但当人以价值为准,道德价值、意识价值,电脑就不知如何与人相比。”
难以数字化处理的并非只有灵感。 人有个特质在现象学上叫具身性——有身体、有感知,可以跟周边环境接触获得知识,这种知识与不跟外界接触、完全靠推理得来的知识不一样 ,打个比方,眼睛的转动可以帮注意力集中做出多种选择,这是人生活在世界上跟周边环境接触形成的,很难提炼出来放到计算机中去。再如两条腿走路,要在机器人身上实现并不容易,因为涉及人如何使用力气来抵抗地心引力,这是人上百万年来生物进化后自然而然的反应,要把这个技能加诸机器人身上,会涉及大量的计算,而且这种运转需要非常复杂的机电控制系统,保证它像人体四肢那样可靠地精密运转有很大挑战。概言之, 人的知识来自于 社会 和交往,这种知识很难形式化,知识的形式化边界至少在目前来看也是数字计算机的能力边界 ,人工智能缺乏具身性特征,难以从周边环境中获得这些不能形式化的知识。
知识学习已经够复杂了,但这还不是人类智能的全部。前些年机器人“华生”参加美国答题节目,已经超越了最好的美国选手,它存储了很多词典、报纸,也可以做简单推理,已然是知识丰富了,但并没有人把它看作是一个完整的人。“人除了知,还有情和意,意是意志信仰,情跟人的群体有关,知情意是绑定一起的,很多知识的正确与否取决于情和意,比如宗教信仰和 社会 背景。 作为 社会 动物,人做出的决策并不完全是知识表达,有很多情和意的因素在里面,所以很难还原出一个算法来表现人类如何做决策 。”出身计算机专业的上海交通大学科学史在读博士陈自富,是个ai发烧友,他的这个观点与李杰相仿。在李杰看来,人类是团结的动物,人类的智慧来自于群体间的学习与成长,人类智慧不是一个单纯的机械,而是一个智能化集成技术。简而言之,智慧是智能化的结晶。人工智能可能在“单挑”中胜出,但是超出整个 社会 的人类智慧不太可能。
“即便是最乐观的计算机科学家也认为人工智能在21世纪达到单个人的智力水平,这已经不错了,但其中不涉及情和意。”陈自富认为,知的方面,在未来30多年内,计算机可以达到一个很高的水平,人工智能大致能帮助普通个人做出不那么糟糕的决策,比如帮人计算存一笔钱是否划得来,存定期还是活期,买哪支股票。“对于确定的任务,人工智能可以做得到,而一些非确定性的任务则很难。说白了,机器只有不断进化,成为我们 社会 的一员,才能达到人类水平。”
人工智能最终达到或超越人类智慧,必须要跨越机器与人的差别 。这种差别主要是理性、信仰和群体交往中的 情感 互动、文化基因。创造出有意识、有 情感 的人工智能,怀此愿望的科学家不在少数,阿森克特说过,我们能够实现让机器人像人类一样思考,但构建完美的机器人大脑需要很长时间。.
蓝脑计划(bluebrain)领军人物亨利·马克莱姆(henrymarkram)2009年曾声称十年内推出人类意识的全息图,意图建立一套具有自我意识的人工智能。完成的方法是建立一个从突触到脑半球的完整人脑模型,并在一部超级计算机上模拟。尽管他的实验室已成功模拟小鼠单个脑皮层单元的活动,但是似乎距离还是很远。
“西方人常说,生命是一个奇迹,那么脑更是一个奇迹,脑是生命里最高级的组成部分,人们并没有把这个奇迹的所有机制都搞清楚。”江晓原说,当人们说生命是一个奇迹,跟说苹果是一个奇迹,意思不一样,后者只是溢美之词,其构造运作机制都可以搞清楚,而前者是因为不知道生命里面到底发生了什么事,人脑也是一样。
让我们看看把大脑神经元的工作原理弄清楚有多难。人脑是由连接着1000亿个神经元的100万亿个神经突触组成的网络,这些神经突触和神经元的状态每秒改变10到100次,而线虫只有302个神经元,人们尚且都搞不懂其机制。“大脑是个复杂的、开放的巨系统,跟外界一直有信息交换,用计算机模拟整个巨系统难度非常大,目前来讲还差十万八千里。”陈自富说,现在很多人通过计算机程序模拟神经单元,比如谷歌的一个项目大概可以实现10万到100万个大脑神经元的处理功能,这可能还达不到一只猫的智力水平,更何况它的算法是不是就是人脑中的算法,都没法判断。就连马克莱姆自己都无法对“模型建出来,能不能做思考”这个问题给出答案。
事实上, 神经系统的计算方式和计算机有着本质的区别。计算机的状态转变完全由程序设定好,而神经系统从一个状态到另一个状态则非常依赖于当时的境况 。“人脑处理事情会做很多剪枝,当你端起杯子往外倒水,其实有多个分支,大脑会给出一个直接判断,把一些不必要的判断剪掉。但是机器人做这件事,就是对各个分支一个接一个地做可行性计算,这个叫做蛮力计算,所有的计算都要消耗能量。再者,从技术上来看,大脑神经元虽多,其运算速度是缓慢的,但对事情的处理是并行的。如果计算机实现10的10次方到12次方级别的大脑神经元处理功能,目前的技术条件下散热就是一个难以处理的问题。”陈自富认为,人工智能学习人类的这种缓慢的处理机制,需要认知科学的进步。但是搞清楚大脑的大部分原理就要数十年,甚至上百年。 可以说,以现实的技术路径来看,在模拟人类智能的路径上完成超越很难,终结者似乎还距离我们几个星系。
(节选自《人工智能是人类的“终结者”吗?》 刊2015年4月17日《文汇报·文汇学人》)
*文汇独家稿件,转载请注明出处。
关于人工智能会超越人类和人工智能会超越人类的原因的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站。
发表评论
额 本文暂时没人评论 来添加一个吧