AI科技飞速发展,人类大脑最终会被取代吗?

不会。

目前的ai还远比不上人的大脑,还无法理解我们这个复杂的世界,在图像,自然语言,语音相比以前虽然有了较大的进步,但只能适应特定场景,而且还没有自我学习能力,可能过了这个风口又会沉寂了。


AI会不会取代人脑?这个问题非常复杂,且无解。如果我说AⅠ会取代人脑,大家可能无法接受,如果我说AI不会取代人脑,恐怕很多人都不会相信。其实我更愿意相信人脑最终会和AI融合!

人工智能其实是模拟和代替人脑的某些功能和作用的由程序系统组成的一种软件。随着科学技术的突飞猛进,人工智能有了飞跃性的发展。Al不仅能代替人脑的某些功能,而且在速度和准确性上大大超过人脑,它不仅能模拟人脑部分,分析,运算和综合的功能,而且越来越显示某种自主的特性。成为人脑的延伸和增强。不知道大家是否还记得阿尔法GO,在和几个人类最顶尖的围旗大师的较量中,以他们闻所未闻且无法抵抗的围旗手法彻底的碾压他们!这次人机对抗的结果震惊了全世界。而Al所展现出的能力也让人类开始感到惊恐。8月24号随着俄罗斯类人智能机器人F-850“费多尔”首飞太空,除了是太空领域的大事外,此类机器人的出现,也意味着AI正在以人类无法想像的速度接近或者成为人!

自从晚期智人打磨出第一块石器开始到制造出智慧型机器人,短短的近万年的时间,其惊人的创造力将人类一次又一次的推向了历史的高峰。在万物当中以“一骑绝尘”的惊天速度成为了万物之灵!而缔造出这种旷世奇迹的正是我们的人脑!对人脑!

一个由大脑、小脑、间脑、脑干组成的,由胼胝神经纤维构成的最高级的中枢神经系统。其实人脑也是有智能的,人脑的智能是一种在学习过程中的一种进化的过程,是由简单到复杂的自我成长过程。人脑的这种智能完全依赖于其规模极其庞大的神经组织,这就好比是人脑的生物硬件。而那种基于学习的进化过程与对外界感知判断的组合就好比是人脑的生物“核心软件”。某种程度上说人脑与人工智能之一的电脑有一定的相似性。AI能做的,人脑也能做。只不过相对AⅠ,人脑输在了时间,数量,和精确度上。

如果根据这些数据来看,人脑是干不过AⅠ的。但人脑除了有情感之外,还有一样特性是AI所不具备的或者说在很长一段时间里所不具备的,那就是人脑的“感性的快速决断”。这一特性使人脑在对外界预判度上的灵活性远超AI。这使的人脑对外界的判断上有一种对危险的先天感知!而AI不具备这些东西或者说在很长一段时间内不具备这种特性。而且近年来随着科学技术的不断发展,人类也在开发大脑和武装大脑。比如人脑中嵌入芯片,人机结合等等。严格来说这并非是人与AI的融合,而只是一种结合,一种靠具有某些智能和运算处理能力的外物来帮助或协助人脑的一种结合。致于未来人脑能否和AI真正融合,这谁又说的清呢!

随着人类科学技术的高度发展,未来AI也许会最终进化成“人”。可能会突破人类最终的那道防线,成为世界的主宰!当然更有可能在那道防线被突破之前,人类不再视AⅠ为工具,而与AⅠ进行正真意义的高度融合,成为让人脑与AI共生的全新生命体!或许到那个时候人类会开启一个新的纪元!


人类大脑的活动不过也就是生物电信号在神经元之间传递而已。是的,人类是可以有各种“高级”意识,比如“爱”、“想象力”、“理想”。但无论什么“复杂”、多么“高端”的意识,在物理层面上,载体也就是一个一个简单的神经元和传递的电信号而已。既然意识能够建立在这种碳基的“电子元件”上,那么为什么不能建立在具有完全相同功能的硅基“电子元件”上呢?

长远看,一旦人工智能具有了如人类一样的自我意识,那么它可以在任何方面完全碾压人类。但这也不必看作“取代”,因为人工智能是人类有意识地创造出来的,看作人类的“延续”更合理(这和生孩子没什么区别,只不过一个是用子宫生,一个是用大脑、双手和工具“生”)。或者是人类有意识地主动地从碳基生物向硅基生物进化。毕竟碳基身体适应性太差,没有道理也没有意义永远保持碳基而不向硅基转变。

至于因为“人类拥有高级和复杂的情感,人类自由的灵魂可以去爱、去开心、去悲伤、去做各种温暖的事情”而认为人类不会被“取代”,就毫无道理了。这就像一个足以摧毁地球的小行星正在撞向地球时,因为“人类文明经历了那么多的壮丽的篇章、那么多大气磅礴的史诗、荡气回肠的故事,诗人们精妙华丽的诗句、哲学家深邃洞见的思考、科学家对宇宙奥秘的探索”而认为“人类文明不会灭亡”一样。你可以这样想,但这既无道理也无意义。


AI技术目前虽然火爆,但是并没有想象中的那么厉害,在AI的道路上还需要不多探索,等到AI可以大部分替代人类时,只会更加推动人类的发展,AI即便发展到极致其思维都是死板的,基于数据,而人类的思维是发散的除了基于数据还可以基于情感,这是生命的最大特点。AI是无法完全替代人类的,但是我们还是需要很努力的提高自己,去做有创作性的人,在AI盛行的时代,大部分重复性,苦力性的工作会被快速替代。


绝对会,只是时间长短问题!

泰格马克把生命划分为3个阶段:生命1.0是系统的硬件和软件都来自大自然进化的简单生物阶段;生命2.0是系统能够通过学习,自己设计软件的文化阶段;生命3.0是自己既可以设计自己的软件,也能设计自己的硬件,从而主宰自我命运的科技阶段。

现在是生命2.0,人类智能和人工智能都没办法自我设计自己的硬件。但当智能发展到通用人工智能出现的时候,AI就会有能力设计自己的硬件,进入生命3.0时代。生命3.0时代,AI不断地迭代强化自己的大脑,从而引起智能爆炸,成为超级智能。

这时候,人类只能面临三个选择:

一、加入AI,一起改造自己的大脑,面对未来;

二、在超级智能的统治下,成为蚂蚁一样卑微的存在;

三、慢慢消亡

你会选择哪一个?相信大部分的人类最终都会选择升级自己的大脑。

也许你会说,通用人工智能可能不会出现!

但遗憾的是,通用人工智能出现的概率极大,因为出现通用人工智能的物理基础在。人类本身就是最好的证明。

通用人工智能的关键在于学会设计AI,而学习对于智能系统来讲就是学会某个算法,让这个算法来完成某个特定的目标,而算法的计算单元最终是由一团物质以合适的方式排列起来形成。比如说人类大脑的神经元,当人类学会某个算法时,多个神经元突触之间的连接强度甚至连接方式就会发生改变,也可以说是组成突触的碳基物质进行了新的排列。又比如计算机的CPU,当CPU加载某个算法时,多个晶体管状态就会发生改变,也可以说组成了晶体管的硅基物质进行了新的排列。再比如生命从原始的单细胞袍子进化出动物和人类的过程,细胞进行了无数种新的排列,从而从硬件端学习了不同的能力,让生命适应越来越复杂的环境。学习能力并非人类才会,计算机和其他生物也会,基于计算机研发出来的人工智能系统自然也不例外,甚至在特定的目标学习上,人工智能系统已经超越了人类,例如DeepMind开发出来的AlphaZero。当人工智能学会了学习能力,就可以进一步去学习如何编写人工智能系统,实现欧米茄团队中的普罗米修斯通用人工智能系统。


用位美国计算机科学家的话回答这个问题最合适了:

“今天的人工智能发展,距离人们可能或应该担忧机器统治世界的程度,还非常遥远……如果我们讨论的是一千年后或更遥远的未来,AI是否有可能给人类带来厄运?绝对是可能的,但我不认为这种长期的讨论应该分散我们关注真实问题的注意力。”

需要探讨这个问题,首先需要明确人工智能的三个层级阶段。人工智能分三个层级:弱人工智能、强人工智能和超人工智能。

1)弱人工智能,也称限制领域人工智能或应用型人工智能,指的是专注于且只能解决特定领域问题的人工智能。我们今天看到的所有人工智能算法和应用都属于弱人工智能范畴。

2)强人工智能,也称通用人工智能或完全人工智能,指的是可以胜任人类所有工作的人工智能。强人工智能需要具备以下几方面能力:存在不确定因素时进行推理、使用策略、解决问题、制定决策的能力;知识表示的能力,宝库欧常识性知识的表示能力;规划能力;学习能力;使用自然语言进行交流沟通的能力;将上述能力整合起来实现既定目标的能力。

3)超人工智能,假设计算机程序通过不断发展,可以比世界上最聪明、最有天赋的人类还聪明,那么,由此产生的人工智能系统就可以被称为超人工智能。

我们今天还没有到必须分散精力去担心未来,或为可能的机器威胁做准备的地步。即便以今天的标准看来,弱人工智能的发展还有很长的一段路要走,科研人员、技术人员、各行业的从业者、政府、教育机构、社会组织等,还有大量的工作要做。至少在目前,人类离超人工智能的威胁还相当遥远。担忧未来,也许更多还是科幻作家和未来学家的事。

“超人工智能诞生并威胁人类这件事发生的概率是非常小的。其实,我们现在做的只是在制造工具,以自动完成此前需要人类参与才能完成的工作任务。之所以会有人工智能威胁论的疑问,根本上是因为大众习惯于把人工智能人格化,这是问题的根源。”

所以说,在一千年或者更久之后,人类大脑最终是会被AI完全取代的。


原始地址:/tuijian/54285.html