是通过解决我们最棘手的问题并创造大量财富来迎来人类的黄金时代?还是说它会对我们的工作构成威胁?甚至最终会对我们的生存构成威胁?这取决于你问谁......以及他们是否碰巧相信技术和人性。
很少(如果有的话)有技术能像人工智能这样引发广泛的预测。艾伦·马斯克,斯蒂芬·霍金和比尔·盖茨担心AI,霍金总结说,“......创造人工智能将是人类历史上最大的事件......不幸的是,它也可能是最后一次......”
与此同时,包括马克·扎克伯格,安德鲁·吴和奥伦·埃齐奥尼在内的同样杰出的技术专家团队认为这一观点如此牵强,几乎不值得反驳。
扎克伯格甚至称那些兜售世界末日情景的人“ 非常不负责任 ”,而Ng表示对人工智能的这种担忧就像担心“ 火星人口过剩 ”那样。
AI目前执行的任务极其平凡。它可以过滤电子邮件中的垃圾邮件,预测天气并规划交通路线,为司机指路。
然而,处于初级阶段的人工智能类型与我们今天的情况完全不同。现在有一种名为AGI的技术,或者说是一种智能且灵活的人工智能,能够解决以前从未见过的问题。正是这种形式的人工智能引发了如此多的恐惧和希望。
例如,要教AI识别猫的照片,你需要一个庞大的照片数据库,每个照片都被人类标记为猫或非猫。即便AI可以像任何人一样准确地识别猫,但是,这不是通用的,你如果想要教它识别狗,就需要从头开始。
很多担心AGI即将到来的人都相信我们会建立一个无人监督的学习者,以一种我们既无法控制也无法理解的速度递归地提高自己。
日复一日,AGI将变得更聪明。它会以光速提升自己,而人类只能以生命的速度前进,这意味着不久之后,它将成为一种超级智能,远远超过我们。
那些在辩论另一方的人认为,这只不过是一部科幻小说,并指出虽然AGI可能会在某些狭隘的领域自行改进,但它会在误解了什么是情报开始陷入迷茫的状态。
这就把我们带到了第三点意见分歧。那些认为AGI是迫在眉睫的威胁的人更倾向于认为情报是简单明了的。
这不是先例。艾萨克·牛顿(Isaac Newton)确定只需要三个简单的定律来理解运动,同样,人类已经发现了一些简单的规则来控制电和磁。
智力是一样的吗?许多对AGI感到担忧的人都认为情况确实如此,只要有一个突破,AGI就会光速发展。
另一方面认为,人类大脑的数百个专业功能表明我们的智力包含无数聪明的进化黑客,每一个都需要在我们将其传授给机器之前进行整理和理解。
AGI是一种比人类更聪明,更通用的人工智能。那些认为AGI即将到来的人认为这已经是一个相当低的标准。
他们并没有将创造力等人类的能力视为神秘或困难的能力。那些人从直觉到情感再到意识本身来看待人类的能力,并且认为我们远远不了解我们如何做这些事情,更不用说建造机器去做了。
狭义的AI是建立广义AGI的第一步吗?许多对AGI感到困扰的人都认为我们正在努力的发展狭窄的人工智能。
另一个阵营认为狭窄的人工智能与AGI所需的技术完全不同。虽然他们的名字中都碰巧有“人造”和“智慧”的字样,但这就是相似之处的结束。
关注AGI阵营认为,通过人工智能,机器人和自动化将很快完成所有工作,几乎所有人都不用工作。不关心的阵营坚持认为,自动化和人工智能不会直接与人类竞争,而是提高人类的生产力,创造更好,更高薪的工作。
我们虽然正处于未知的水域,但是,有一点是肯定的:这些未知是未来事物的先兆。当我们开始努力应对数字生活和机器意识时,我们将处于更加不稳定的状态。
杏彩体育平台登录