Fork me on GitHub

我们的时代

简介

夫人之相与,俯仰一世,仰观宇宙之大,俯察品类之盛,所以游目骋怀,足以极视听之娱,信可乐矣!

这是最好的时代,也是最坏的时代,这是,我们的时代!

写作背景

知名物理学家史蒂芬·霍金去世,享年76岁,(Stephen William Hawking,1942年1月8日–2018年3月14日),英国物理学家和宇宙学家,曾任职剑桥大学理论宇宙学中心研究主任。

霍金做出很多重要贡献,最主要的是他与罗杰·彭罗斯合作提出广义相对论框架内的彭罗斯-霍金奇性定理,以及他关于黑洞会发射辐射的理论预测(霍金辐射)。

1979年至2009年是剑桥大学的卢卡斯数学教授,撰写了多本阐述自己理论和宇宙猜想的科普著作,如《时间简史》,《果壳中的宇宙》等。

霍金患有肌萎缩性脊髓侧索硬化症,随着年月愈加严重,后半生全身瘫痪,在轮椅中度过半生。曾有过两次婚姻,育有三名子女,情感经历和病情发展可以看看2014年的电影《万物理论》,科学上的成就么,普通人知道很牛就是,至于有多牛,我也不是很清楚┑( ̄Д  ̄)┍

一直没有停止思考!一个延伸到宇宙尽头时间终点的灵魂被困在了比正常人更小的牢笼里动弹不得,虽然对于他们这些思考范围横跨无尽时间空间的存在而言,肉体本身就是一个小得不能再小的牢笼,但是全身瘫痪一辈子也未免太残酷,连日常生活仅有的一点乐趣都被剥夺。或许他根本不在乎,肉体的享受跟思考宇宙的奥秘比起来不值一提,或许他在乎,在乎得不得了,但是没办法,只能靠绝大的毅力降伏心魔,将自己的所有才华,精力都投入无尽的思考,不得而知,我们看到的只有霍金身残志坚,全身瘫痪做出了令人瞩目的成就,得到了社会的认同和尊重,励志到不行,然而不是本人,永远无法体会他的痛苦,挣扎,直面一切地勇气。

事实上在我看来霍金先生已经很幸运了,他对人类在宇宙认识方面做出了巨大的贡献,值得尊敬,虽然身体残缺,但是这一生也算是事业有成,功成名就。历史上有更多奋斗在科学前线,穷尽一生为人类科学开疆拓土的先贤或者是走错了方向,或者是运气不好,或者是受到埋没,最终献出了所有光和热却无法得到大众的认同,有很多如果单论科技成果毫不逊色于霍金,然而这就是现实,霍金注定成为一个传奇,而那些先贤生前不被认同,死后不被大众所知。他们后悔吗,我觉得没有,总有人负重前行,总有人会站在文明的高度发着光,总有人不计利益地站出来。他们奉献一切,我们享受着成果,可以不知道,但要对这一切心存感激,心存敬畏。有一篇我特别特别喜欢的作者刘慈欣写的特别特别喜欢的科幻小说《伤心者》,相信我,你会哭的。

刷CSDN看到有篇文章提到霍金在一次演讲中提到对人工智能的看法,就联想到前阵子学过的自然辩证法里科技发展的部分,还有些有的没的,上班路上看着博客想了一路,一时兴起整理出来,可以肯定的是未来的我再次看到这篇文章的时候一定别有一番滋味,估计会疯狂吐槽现阶段的我思考角度太少太局限,思想幼稚吧哈哈哈,不管了,未来的我,你好(@^0^@)/

我的思考

这是最好的时代,生产力随着科技水平的提升指数增长,之前的250万年产生的财富占3%,而97%的财富是在工业革命后的这250年间产生的,人类这个物种在科技的辅助下飞速进步,

能源的使用从化学能,机械能,电能到现在的核能,可控核聚变,氢元素占整个宇宙质量的99.999%,可控核聚变是两个较轻的原子核聚合为一个较重的原子核并释放能量的过程,最容易实现的聚变反应是氢的同位素–氘和氚的聚变,这种反应在太阳上持续了50亿年,现在科学家们创造了一个个小太阳来为人类持续稳定的输出能量,当前还不成熟,但是已经有持续90s的可控核聚变,相信人类用上廉价稳定无废料无限的能量那天迟早到来,那时候人类就不用明明已经进入电力时代,还为古生物尸油–石油打生打死了,能源问题解决之后,人类的征途是宇宙群星!

互联网出现不到半个世纪,整个人类物种前所未有地成为了一个整体,计算机网络技术地出现使社会资源地分配效率,信息的沟通速度,世界上人类真正形成大规模的分工合作。整个人类文明如果单纯看作是地球上对各种资源进行整合利用维持自身生存的一个物种的话,那么计算机和互联网出现后这个物种对资源的使用和改造效率提升了无数倍,利用外界一切可用资源提升自身生存能力,发展文化,科技的能力得到极大提升。人类文明发展史如果从诞生到现在画个时间跨度万年记的曲线,那就是一条折线,前面几百万年近乎平行于x轴向前,最后一个小格直线蹿升。

量子通信,人工智能,物联网,智能汽车,各种用途的机器人,无人机,整个社会在享受了几百年科技进步的红利之后,对于新生科技几乎是无条件接受的状态,每时每刻都在发生着变革,信息化的步子越来越快,手机,个人电脑,包括控制各种设施的智能终端,人类的生活从未如此紧密地连接在一起。

前段时间学习了自然辩证法, 其中讲到了人类这个生物个体和不断提升的技术掌控的矛盾,人体很脆弱,很低效,技术发展,人类无法掌控,要么电子化,主动拥抱人工智能,将人工智能发展的所有资粮化为人类进化的养分,要么半机械化,用辅脑协助处理,用外接存储扩展大脑存储,用技术实现人对机械的绝对掌控,突然有点期待全民上传和脑后插管的那天是怎么回事Σ(っ °Д °;)っ!

如果只是一直发展信息化,自动化,发展人工智能,发展科技,总有一天人类会成为整个科技世界运行发展的瓶颈,失控的结果可能是毁灭性的。这就是霍金演讲中对人工智能的思考,不能一直致力于发展人工智能替代人类,完善机器人格,要多挖掘利用人工智能的现实应用来让促进社会和技术的发展,人工智能是为人类服务的,不是一群人类最精英的团体发展研究出电子生命来替代人类自身的!

这是最坏的时代,或许我们都看不到人工智能毁灭人类的那天(按最坏的猜想),人类本身国家社会发展就有极多的矛盾,人类可以说是这个星球最嗜血的物种,整个人类史就是一部战争史,除了人类,没有任何一个物种会毫无理由单纯为了毁灭而去杀戮。核扩散,伊朗,朝鲜,美国,俄罗斯,有核武器的国家互相仇视,二战后的核毁灭压力造就了美国”毁掉的一代”,多国签订《核不扩散条约》后都积极控制核武器数量和拥有的国家,同时稳定的大国关系,都知道底线就是不能打核战争。现在呢,朝鲜有了核弹,日本有能力造出核弹,伊朗核问题又开始恶化,中东那边打成一锅粥,希望是我想多了吧。中东难民问题导致欧洲那边恐怖袭击不断,英国这两天跟俄国翻脸,大使馆旗都拔了,美国贸易保护,满世界经济制裁,人工智能的出现必然导致大量的岗位需求变化,创造大量就业人口同时会毁掉更多的岗位需求,这种科技变更引起的社会动荡是有先例的,参考勒德分子,那一天不远,希望引发的社会动荡不会引发太严重的后果。

作为一个普通人,看到了也是没有半点办法的,时代前进的车轮没人挡着住,连拥有站在前进道路上资格的人都少之又少。作为普通人只能说希望人类文明万古长青,走向星辰,不会被中途一些蝇营狗苟的事情毁掉。没办法,从历史发展的时间跨度来,个人的生老病死只是一瞬间,连朝生暮死都算不上,如果做不出极大的成就,就只是地球上已经死掉的几十亿无名人士之一,留不下痕迹,没有人记得。

我的存在只对我有意义,人生就是一种体验,活在当下,去吃去玩,去爱,有自己的目标,有想做的事,一边前进一遍享受路上的风景,珍惜吃的每个苹果,珍惜爱我的人,享受看书时的愉悦,跟朋友开黑的快乐,享受奋斗带来的压力,享受每一种让我觉得自己还活着的感觉。毕竟,如果不活得敏感点,多珍惜眼下拥有的,哪天不知道出了啥事,比如下一秒核弹爆炸,战争开打之类的。

夫人之相与,俯仰一世,仰观宇宙之大,俯察品类之盛,所以游目骋怀,足以极视听之娱,信可乐矣!

附录-霍金在 GMIC 2017 开幕式上的主题演讲

让人工智能造福人类及其赖以生存的家园

在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。简单来说,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。我不得不说,是好是坏我们仍不确定。但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。我们别无选择。我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。

人工智能的研究与开发正在迅速推进。也许我们所有人都应该暂停片刻,把我们的研究重复从提升人工智能的能力转移到最大化人工智能的社会效益上面。基于这样的考虑,美国人工智能协会(AAAI)于 2008 至 2009 年成立了人工智能长期未来总筹论坛,他们近期在目的导向的中性技术上投入了大量的关注。但我们的人工智能系统须要按照我们的意志工作。跨学科研究是一种可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有人工智能本身的各个分支。

潜在的威胁:计算机智能与我们没有本质区别

文明所提产生的一切都是人类智能的产物,我相信生物大脑可以达到的和计算机可以达到的,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。但我们并不确定,所以我们无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。的确,我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。

在人工智能从原始形态不断发展,并被证明非常有用的同时,我也在担忧创造一个可以等同或超越人类的事物所导致的结果:人工智能一旦脱离束缚,以不断加速的状态重新设计自身,人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代,这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,一个与我们冲突的意志。尽管我对人类一贯持有乐观的态度,但其他人认为,人类可以在相当长的时间里控制技术的发展,这样我们就能看到人工智能可以解决世界上大部分问题的潜力。但我并不确定。

2015 年 1 月份,我和科技企业家埃隆·马斯克,以及许多其他的人工智能专家签署了一份关于人工智能的公开信,目的是提倡就人工智能对社会所造成的影响做认真的调研。在这之前,埃隆·马斯克就警告过人们:超人类人工智能可能带来不可估量的利益,但是如果部署不当,则可能给人类带来相反的效果。我和他同在“生命未来研究所(Future of Life Institute)”的科学顾问委员会,这是一个为了缓解人类所面临的存在风险而设立的组织,而且之前提到的公开信也是由这个组织起草的。这个公开信号召大家展开可以阻止潜在问题的直接研究,同时也收获人工智能带给我们的潜在利益,并致力于让人工智能的研发人员更关注人工智能安全。此外,对于决策者和普通大众来说,这封公开信内容翔实,并非危言耸听。人人都知道人工智能研究人员们在认真思索这些担心和伦理问题,我们认为这一点非常重要。比如,人工智能是有根除疾患和贫困的潜力的,但是研究人员必须能够创造出可控的人工智能。那封只有四段文字,题目为《应优先研究强大而有益的人工智能》(“Research Priorities for Robust and Beneficial Artificial Intelligence”)的公开信,在其附带的十二页文件中对研究的优先次序作了详细的安排。

如何从人工智能中获益并规避风险

在过去的 20 年里,人工智能一直专注于围绕建设智能代理所产生的问题,也就是在特定环境下可以感知并行动的各种系统。在这种情况下,智能是一个与统计学和经济学相关的理性概念。通俗地讲,这是一种做出好的决定、计划和推论的能力。基于这些工作,大量的整合和交叉被应用在人工智能、机器学习、统计学、控制论、神经科学、以及其它领域。共享理论框架的建立,结合数据的供应和处理能力,在各种细分的领域取得了显著的成功,例如语音识别、图像分类、自动驾驶、机器翻译、步态运动和问答系统。

随着这些领域的发展,从实验室研究到有经济价值的技术形成良性循环。哪怕很小的性能改进,都会带来巨大的经济效益,进而鼓励更长期、更伟大的投入和研究。目前人们广泛认同,人工智能的研究正在稳步发展,而它对社会的影响很可能扩大,潜在的好处是巨大的,既然文明所产生的一切,都是人类智能的产物。由于这种智能是被人工智能工具放大过的,我们无法预测我们可能取得什么成果。但是,正如我说过的那样,根除疾病和贫穷并不是完全不可能,由于人工智能的巨大潜力,研究如何(从人工智能中)获益并规避风险是非常重要的。

现在,关于人工智能的研究正在迅速发展,这一研究可以从短期和长期两个方面来讨论。

短期的担忧主要集中在无人驾驶方面,包括民用无人机、自动驾驶汽车等。比如说,在紧急情况下,一辆无人驾驶汽车不得不在小概率的大事故和大概率的小事故之间进行选择。另一个担忧则是致命性的智能自主武器。他们是否该被禁止?如果是,那么“自主”该如何精确定义;如果不是,任何使用不当和故障的过失应该如何问责。此外还有一些隐忧,包括人工智能逐渐可以解读大量监控数据引起的隐私问题,以及如何掌控因人工智能取代工作岗位带来的经济影响。

长期担忧主要是人工智能系统失控的潜在风险。随着不遵循人类意愿行事的超级智能的崛起,那个强大的系统会威胁到人类。这样的结果是否有可能?如果有可能,那么这些情况是如何出现的?我们又应该怎样去研究,以便更好地理解和解决危险的超级智能崛起的可能性?

当前控制人工智能技术的工具(例如强化学习)以及简单实用的功能,还不足以解决这个问题。因此,我们需要进一步研究来找到和确认一个可靠的解决办法来掌控这一问题。

近来(人工智能领域的)里程碑,比如说之前提到的自动驾驶汽车,以及人工智能赢得围棋比赛,都是未来趋势的迹象。巨大的投入正在倾注到这一领域。我们目前所取得的成就,和未来几十年后可能取得的成就相比,必然相形见绌。而且当我们的头脑被人工智能放大以后,我们更不能预测我们能取得什么成就。也许在这种新技术革命的辅助下,我们可以解决一些工业化对自然界造成的损害问题,关乎到我们生活的各个方面也即将被改变。简而言之,人工智能的成功有可能是人类文明史上最大的事件。

但是人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。今年早些时候,我和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的禁令,我们正在焦急的等待协商结果。目前,九个核大国可以控制大约一万四千个核武器,它们中的任何一个都可以将城市夷为平地,放射性废物会大面积污染农田,而最可怕的危害是诱发核冬天,火和烟雾会导致全球的小冰河期。这一结果将使全球粮食体系崩塌,末日般动荡,很可能导致大部分人死亡。我们作为科学家,对核武器承担着特殊的责任,因为正是科学家发明了它们,并发现它们的影响比最初预想的更加可怕。

现阶段,我对灾难的探讨可能惊吓到了在座的各位,很抱歉。但是作为今天的与会者,重要的是,你们要认清自己在影响当前技术的未来研发中的位置。我相信我们会团结在一起,共同呼吁国际条约的支持或者签署呈交给各国政府的公开信,科技领袖和科学家正极尽所能避免不可控的人工智能的崛起。

去年10月,我在英国剑桥建立了一个新的机构,试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。“利弗休姆智能未来中心(The Leverhulme Centre for the Future of Intelligence)”是一个跨学科研究所,致力于研究智能的未来,这对我们文明和物种的未来至关重要。我们花费大量时间学习历史,深入去看,大多数是关于愚蠢的历史,所以人们转而研究智能的未来是令人欣喜的变化。虽然我们对潜在危险有所意识,但我内心仍秉持乐观态度,我相信创造智能的潜在收益是巨大的。也许借助这项新技术革命的工具,我们将可以削减工业化对自然界造成的伤害。

确保机器人为人类服务

我们生活的每一个方面都会被改变。我在研究所的同事休·普林斯(Huw Price)承认,“利弗休姆中心”能建立,部分是因为大学成立了“存在风险中心(Centre for Existential Risk)”。后者更加广泛地审视了人类潜在问题,“利弗休姆中心”的重点研究范围则相对狭窄。

人工智能的最新进展,包括欧洲议会呼吁起草一系列法规,以管理机器人和人工智能的创新。令人感到些许惊讶的是,这里面涉及到了一种形式的电子人格,以确保最有能力和最先进的人工智能的权利和责任。欧洲议会发言人评论说,随着日常生活中越来越多的领域日益受到机器人的影响,我们需要确保机器人无论现在还是将来,都为人类而服务。一份向欧洲议会议员提交的报告明确认为,世界正处于新的工业机器人革命的前沿。报告分析了是否给机器人提供作为电子人的权利,这等同于法人(的身份)。报告强调,在任何时候,研究和设计人员都应确保每一个机器人设计都包含有终止开关。在库布里克的电影《2001 太空漫游》中,出故障的超级电脑哈尔没有让科学家们进入太空舱,但那是科幻,我们要面对的则是事实。奥斯本·克拉克(Space Odyssey)跨国律师事务所的合伙人——洛纳·布拉泽尔(Lorna Brazell)在报告中说,我们不承认鲸鱼和大猩猩有人格,所以也没有必要急于接受一个机器人人格,但是担忧一直存在。报告承认在几十年的时间内,人工智能可能会超越人类智力范围,进而挑战人机关系。报告最后呼吁成立欧洲机器人和人工智能机构,以提供技术、伦理和监管方面的专业知识。如果欧洲议会议员投票赞成立法,该报告将提交给欧盟委员会,它将在三个月的时间内决定要采取哪些立法步骤。

我们还应该扮演一个角色,确保下一代不仅仅有机会还要有决心,能够在早期阶段充分参与科学研究,以便他们继续发挥潜力,并帮助人类创造一个更加美好的的世界。这就是我刚谈到学习和教育的重要性时所要表达的意思。我们需要跳出“事情应该如何(how things should be)”这样的理论探讨,并且采取行动,以确保他们有机会参与进来。我们站在一个美丽新世界的入口,这是一个令人兴奋的、同时充满了不确定性的世界,而你们是先行者,我祝福你们。

本文标题:我们的时代

文章作者:Chaos

发布时间:2018年03月15日 - 09:03

最后更新:2018年03月15日 - 03:03

原始链接:http://www.lovepanda.tk/2018/03/15/我们的时代/

许可协议: 署名-非商业性使用-禁止演绎 4.0 国际 转载请保留原文链接及作者。