文章查看
当前位置 :主页 > 游戏 >
霍金的遗嘱清单:离开地球跟警惕人工智能
* 来源 :http://www.xwhjs.com * 作者 : * 发表时间 : 2018-03-17 11:15

原标题:霍金的遗嘱清单:离开地球和警惕人工智能

轮椅上的斯蒂芬·霍金终于离开了地球,可以跟爱因斯坦、牛顿他们一起打打牌了。

在从前的二十年里,霍金是明星,除了连续摸索宇宙实际,他也出现在各种场合,为所有关心人类福气的主题发声。而在他去世前的这几年中,霍金最关注的话题就是:离开地球和警惕人工智能。

当初我们就梳理下霍金通过各种渠道念叨这两个话题的舆论。

对分开地球,早在2011年霍金在接收美国视频共享网站BigThink访谈时就称地球将在两百年内覆灭,人类要想活命只能移民外星球。

2017年11月5日,北京腾讯WE大会的现场。霍金通过视频指出了人类移民太空的起因所在:一个起因是,对我们来说,地球变得太小了。在从前二百年中,人口增加率是指数级的,即每年人口以相同比例增长。目前这一数值约为1.9%。 这听起来可能不是很多,但它象征着,每四十年世界人口就会翻一番。 2022年,我将庆贺本人80岁的生日,而在我人生的这段进程中,世界人口比我出生时膨胀了四倍。这样的指数增添不能持续到下个千年。 到2600年,世界将拥挤得“摩肩擦踵,118kj开奖直播现场香港一;,电力消耗将让地球变成“炽热;的火球。这是气息奄奄的。然而我是个乐观主义者,我信赖咱们能够避免这样的世界末日,而最好的方法就是移民到太空,探索人类在其余星球上生涯的可能。

而在2017年7月,霍金就痛批美国总统特朗普退出景象问题《巴黎协定》的决议,可能将导致不可逆转的气象变革,忠告称此举或将让地球变成一个金星一样的温室星球。霍金在接受BBC专访时表示,咱们正在濒临寰球变暖不可逆转的临界点,特朗普的决定可能将地球推过这个临界点,变成像金星一样的星球,温度高达250度,并且下着硫酸雨。

也是在2017年6月播放的纪录片《远征新地球》(Expedition New Earth)中,霍金说,在未来一百年内,人类为生存必须离开地球,在太空寻求新家。

离开地球,霍金也不是光嘴皮子恫吓恐吓大家,2016年4月12日在纽约宣布启动“冲破射星;盘算,将同俄罗斯商人尤里·米尔纳(Yuri Milner),以及美国社交网站面簿首创人兼总裁扎克伯格(Mark Zuckerberg)配合建造能以五分之一光速飞往比邻星的微型星际飞船。

除了地球即将面临的各种危险,霍金更关怀人类正在发明一个毁灭自己的怪物:人工智能(AI)。

2017年3月,霍金在接受英国《泰晤士报》采访时再次发出警告,“人类需要操纵以人工智能为代表的新兴科技,以防止它们在未来可能对人类生存带来的灭绝性要挟。;他还说,“自从人类文明开始以来,侵略便始终存在,往往浮现在相对存在生存才干上风的不同群体之间,而未来人工智能进一步发展便可能具备这种‘优势’;,霍金阐明自己的警告时说道,“他们本身也是生根于达尔文的进化论之中。因此人类需要运用逻辑跟理性去控制未来可能发生的威胁。;

2016年10月19日,剑桥大学“莱弗休姆的将来智能中心(LCFI);正式投入利用。霍金在庆祝典礼上发表了讲演。霍金在报告中批评了人工智能的无把持发展,2018全年材料内部公开头数与尾数,他认为,人工智能技能确切有渴望带来巨大的福利,比喻革除疾病和清苦,然而它同样也可能带来危险,比如富强的自主式武器,或者帮助少数人压迫多数人。“我们花了大量的时光来学习历史。;霍金说,“让我们面对事实,大部分的历史是愚笨的。所以对那些学习未来智能的人应当表现欢迎。; “我们生活的每一个方面都会改变。总之,发现AI的成功可能是我们文化历史上最大的事件。;霍金说。

2016年1月26日和2月2日在BBC电台第四频道播出霍金瑞思系列演讲(Reith Lectures),在演讲中他直言,科学技术的进一步发展会惹出更多的新麻烦。同样在这个演讲中,霍金仍然以为科技进步是人类的新威逼。他甚至提及若人类最终得以在其他星球建立家园,或者还能幸存下来。

“只管地球在某一年遭受灭顶之灾的可能性很低,但随着时间的推移,在未来几千或多少万年,这会是可能预见的事件。那时,我们应该已经进入太空、住到其余星球上。所以地球上的覆灭并不象征着人类的终结。;“然而,至少在未来数百年里我们还无奈在太空世界建起人类的地盘。所以我们当初必需非常警戒。;

2015年,霍金曾联合思维家乔姆斯基马斯克等数千名常识分子发表联名公开信中警告:必须撤消“机器人杀手;的研发和应用,人工智能方面的武备比赛可能是人类的灾祸,它将助长战役和恐怖主义,加剧世界动荡局势。

这封公然信由未来生活研究所(Future of Life Institute)动员,这个团体致力于缓解“人类面临的生存危险;,忠告人们启动“人工智能军备竞赛;的危险。公开信中谈到“人工智能技巧已经达到了这样一个地步:如果不法律限度,那么这种系统的部署在未来几年中就可以实现,并不须要等待多少十年。;

而早在2014年12月,霍金接受英国广播公司(BBC)采访时就清楚表示:“制造可能思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就将是人类的末日。;

霍金兴许对人类和科技的未来是达观的,他并不信任人类真的能控制科技这个怪物,但令人讽刺的是,一旦人类用科技毁掉了这个星球,他所能仰赖的也只有科技巧帮这个种族在外星球继续滋生。

让我们别忘记霍金的预言和警告。

相干的主题文章: 相关的主题文章:
下一篇:没有了