商财网-专业的商业信息聚合平台
adtop
您的位置:商财网 > 科技数码

霍金在GMIC2017:人工智能发展不当可招致人类灭亡

时间:2017-05-06 22:35   来源: 互联网    作者:叶知秋    阅读量:8216   

4月27日,以“天·工·开·悟”为主题的GMIC2017毫无意外的将“人工智能”作为了本次大会的核心内容,除了众多行业领军人物的参与外,多位著名学者的亮相也称得上是本届大会的一个亮点。其中来自英国剑桥大学的著名物理学家史蒂芬·霍金(Steven Hawking)也在本次大会的开场环节以远程视频的形式作了令人印象深刻的演讲,演讲主题为《让人工智能造福人类及其赖以生存的家园》。霍金在演讲中提出,人工智能是人类的伟大创造,但利用不当可能将毁掉人类文明,而此前他也不止一次的对人工智能技术在未来可能带来的危机表示了担忧。

硬蛋(IngDan)对霍金教授演讲内容做了精简整理,演讲内容如下:

人工智能的崛起:最好与最糟相伴

霍金认为,人工智能的崛起是他一生中见证过的最深刻,同时也是对人类影响与日俱增的变化。人工智能的崛起要么是人类历史上最好的事,要么是最糟的。人工智能的发展是好是坏仍不确定,但人类应该竭尽所能,确保其未来发展对人类和环境有利,在现在或者将来解决人工智能中的存在着的问题。

“人工智能的研究与开发正在迅速推进。也许我们所有人都应该暂停片刻,把我们的研究重复从提升人工智能能力转移到最大化人工智能的社会效益上面。”霍金如是表示。

文明所提产生的一切都是人类智能的产物,他相信生物大脑可以达到的和计算机可以达到的,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。但现在无法知道人类将会无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。

在人工智能从原始形态不断发展,并被证明非常有用的同时,霍金也在担忧创造一个可以等同或超越人类的事物所导致的结果:人工智能一旦脱离束缚,会以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。未来,人工智能可以发展出自我意志,一个与人类冲突的意志。

2015年1月份,霍金和科技企业家埃隆·马斯克,以及许多其他的人工智能专家签署了一份关于人工智能的公开信,题目为《应优先研究强大而有益的人工智能》。这封公开信的目的是提倡就人工智能对社会所造成的影响做认真的调研。埃隆·马斯克曾警告过人们:超人类人工智能可能带来不可估量的利益,但是如果部署不当,则可能给人类带来相反的效果。同时,霍金认为,人工智能研究人员们认真思索这些令人担心的伦理问题颇为重要,但是研究人员必须能够创造出可控的人工智能。

人工智能系统失控的潜在风险

霍金表示,在过去的20年里,人工智能一直专注于特定环境下可以感知并行动的各种系统,通俗地讲,这是一种做出好的决定、计划和推论的能力。基于这些工作,大量的整合和交叉孕育被应用在人工智能、机器学习、统计学、控制论、神经科学、以及其它领域。共享理论框架的建立,结合数据的供应和处理能力,在各种细分的领域取得了显著的成功。例如语音识别、图像分类、自动驾驶、机器翻译、步态运动和问答系统。

人工智能的研究正迅速发展,这一研究可以从短期和长期来讨论。一些短期的担忧在无人驾驶方面,从民用无人机到自主驾驶汽车。比如说,在紧急情况下,一辆无人驾驶汽车不得不在小风险的大事故和大概率的小事故之间进行选择。另一个担忧在致命性智能自主武器。他们是否该被禁止?如果是,那么“自主”该如何精确定义。如果不是,任何使用不当和故障的过失应该如何问责。还有另外一些担忧,由人工智能逐渐可以解读大量监控数据引起的隐私和担忧,以及如何管理因人工智能取代工作岗位带来的经济影响。

长期担忧主要是人工智能系统失控的潜在风险,随着不遵循人类意愿行事的超级智能的崛起,那个强大的系统威胁到人类。当前控制人工智能技术的工具,例如强化学习,简单实用的功能,还不足以解决这个问题。因此,人类需要进一步研究来找到和确认一个可靠的解决办法来掌控这一问题。

霍金认为,比如说之前提到的自主驾驶汽车,以及人工智能赢得围棋比赛,都是未来趋势的迹象。巨大的投入倾注到这项科技。科学家目前所取得的成就,和未来几十年后可能取得的成就相比,必然相形见绌。霍金说:“当我们的头脑被人工智能放大以后。也许在这种新技术革命的辅助下,我们可以解决一些工业化对自然界造成的损害。关乎到我们生活的各个方面都即将被改变。”人工智能的成功有可能是人类文明史上最大的事件。

人工智能发展不当可招致人类灭亡

霍金曾不止一次的表示了对人工智能的担忧,在GMIC2017的演讲上他也再次强调了这一点——人工智能可能是人类文明史的终结。霍金表示,人工智能发展不当的话,如最大化使用智能性自主武器可能带来恶果。

今年早些时候,霍金和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的禁令。目前,九个核大国可以控制大约一万四千个核武器,它们中的任何一个都可以将城市夷为平地,放射性废物会大面积污染农田,最可怕的危害是诱发核冬天,火和烟雾会导致全球的小冰河期。这一结果使全球粮食体系崩塌,末日般动荡,很可能导致大部分人死亡。

“我们作为科学家,对核武器承担着特殊的责任,因为正是科学家发明了它们,并发现它们的影响比最初预想的更加可怕。”

此外,霍金表示,我们要认清自己在影响当前技术的未来研发中的位置。并团结在一起,呼吁国际条约的支持或者签署呈交给各国政府公开信,科技领袖和科学家将共同极尽所能避免不可控的人工智能的崛起。

机器人是否应有“权利”

去年十月,霍金在英国剑桥建立了一个新的机构,名为“利弗休姆智能未来中心”,试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。它是一个跨学科研究所,致力于研究智能的未来。

霍金说,欧洲议会正呼吁起草一系列法规,以管理机器人和人工智能的创新,这里面涉及到了一种形式的电子人格。欧洲议会发言人评论说:“随着日常生活中越来越多的领域日益受到机器人的影响,我们需要确保机器人无论现在还是将来,都为人类而服务。“

该报告中也分析了是否应该给机器人提供作为电子人的权利,这等同于法人(的身份),这并非没有可能。此外报告也强调,在任何时候,研究和设计人员都应确保每一个机器人设计都包含有终止开关。

不过,洛纳·布拉泽尔在报告中说:“我们不承认鲸鱼和大猩猩有人格,所以也没有必要急于接受一个机器人人格。”但无论怎样,担忧会一直存在。报告承认在几十年的时间内,人工智能可能会超越人类智力范围,进而挑战人机关系。报告最后呼吁成立欧洲机器人和人工智能机构,以提供技术、伦理和监管方面的专业知识。如果欧洲议会议员投票赞成立法,该报告将提交给欧盟委员会。

“我们还应该扮演一个角色,确保下一代不仅仅有机会还要有决心,在早期阶段充分参与科学研究,以便他们继续发挥潜力,帮助人类创造一个更加美好的的世界。”霍金在演讲的最后如此表示。此外,他认为我们需要跳出“事情应该如何”这样的理论探讨,并且及时采取行动。

演讲后的提问环节

1,创新工场CEO李开复:

互联网巨头拥有巨量的数据,而这些数据会给他们各种以用户隐私和利益换取暴利的机会。在巨大的利益诱惑下,他们是无法自律的。而且,这种行为也会导致小公司和创业者更难创新。您常谈到如何约束人工智能,但更难的是如何约束人本身。您认为我们应该如何约束这些巨头?

霍金:

据我了解许多公司仅将这些数据用于统计分析但任何涉及到私人信息的使用都应该被禁止。会有助于隐私保护的是,如果互联网上所有的信息,均通过基于量子技术加密,这样互联网公司在一定时间内便无法破解。但安全服务会反对这个做法。

2,猎豹移动 CEO 傅盛:

“灵魂会不会是量子的一种存在形态?或者是高维空间里的另一个表现?”

霍金:

我认为近来人工智能的发展,比如电脑在国际象棋和围棋的比赛中战胜人脑,都显示出人脑和电脑并没有本质差别。这点上我和我的同事罗杰·彭罗斯正好相反。会有人认为电脑有灵魂吗?对我而言,灵魂这个说法是一个基督教的概念,它和来世联系在一起。我认为这是一个童话故事。

3,百度总裁张亚勤:

“人类观察和抽象世界的方式不断演进,从早期的观察和估算,到牛顿定律和爱因斯坦方程式,到今天数据驱动的计算和人工智能,下一个是什么?”

霍金:

我们需要一个新的量子理论,将重力和其他自然界的其它力量整合在一起。许多人声称这是弦理论,但我对此表示怀疑,目前唯一的推测是,时空有十个维度。

4,斯坦福大学物理学教授张首晟

“如果让你告诉外星人我们人类取得的最高成就,写在一张明信片的背面,您会写什么?”

霍金:

告诉外星人关于美,或者任何可能代表最高艺术成就的艺术形式都是无益的,因为这是人类特有的。我会告诉他们哥德尔不完备定理和费马大定理。这才是外星人能够理解的事情。

5,长城会 CEO郝义:

“我们希望提倡科学精神,贯穿GMIC全球九站,清您推荐三本书,让科技届的朋友们更好的理解科学及科学的未来。”他们应该去写书而不是读书。只有当一个人关于某件事能写出一本书,才代表他完全理解了这件事。

6,微博用户:

“您认为一个人一生中最应当做的一件事和最不应当做的一件事是什么?”

霍金:,我们绝不应当放弃,我们都应当尽可能多的去理解(这个世界)。

7,微博用户:

“人类在漫漫的历史长河中,重复着一次又一次的革命与运动。从石器、蒸汽、电气……您认为下一次的革命会是由什么驱动的?”

霍金:

(我认为是)计算机科学的发展,包括人工智能和量子计算。科技已经成为我们生活中重要的一部分,但未来几十年里,它会逐渐渗透到社会的每一个方面,为我们提供智能地支持和建议,在医疗、工作、教育和科技等众多领域。但是我们必须要确保是我们来掌控人工智能,而非它(掌控)我们。

8,音乐人、投资者胡海泉:

“如果星际移民技术的成熟窗口期迟到,有没有完全解决不了的内发灾难导致人类灭绝?抛开陨星撞地球这样的外来灾难。”

霍金:

是的。人口过剩、疾病、战争、饥荒、气候变化和水资源匮乏, 人类有能力解决这些危机。但很可惜,这些危机还严重威胁着我们在地球上的生存,这些危机都是可以解决的,但目前还没有。

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

本站搜索

adr1
adr2

相关文章