俄媒盘点最可能毁灭人类的四大灾难

新华社 2019-06-11 15:01 30953

新华社北京6月11日新媒体专电 俄罗斯《观点报》网站6月9日文章盘点了最可能导致人类灭绝的四大灾难,现将文章内容摘编如下:

英国“蓝爪”机构(Blueclaw)近日列出了可能毁灭地球生命的潜在灾难清单。这份清单主要参考了50个不同来源的数据汇编。

灾难清单

◆全球变暖根据政府间气候变化专门委员会的数据,到2055年全球气温或比工业化之前水平高出两摄氏度。如果地球继续以现在这样的速度升温,2136年之后全球气温将升至44度,这对人类而言是临界水平。

专家认为,气温如此上升将导致大部分陆地被淹没并海啸频发。

◆致命疾病结核病、疟疾、埃博拉、拉沙热、鼠疫、霍乱及其他病毒同样被学者视为对人类文明的最大威胁。根据媒体的数据,仅2017年就有超过1000万人感染肺结核,约200万人因此丧命。

◆核灾难没有什么像苏美核战争威胁一样,令20世纪下半叶的人们如此害怕。核战争的威胁至今仍然存在,尤其是鉴于越来越多国家拥有核武器。

目前美国以1030次核试验次数位列第一。排第二的是苏联和后来的俄罗斯,为715次。但俄罗斯拥有最大的“沙皇炸弹”,一颗爆炸可夺走约1830万人的生命。要想摧毁整个地球,这种炸弹爆炸4206次就足够。

◆太空威胁在美国国家航空航天局(NASA)看来,地球与大型天体相撞的可能性微乎其微,但NASA发现了被命名为“佛罗伦萨”的巨型近地小行星,其直径约为5千米。根据科学家的数据,如果“佛罗伦萨”与地球相撞,将导致至少12亿人死亡。

专家见解

已故著名英国物理学家斯蒂芬·霍金的设想与“蓝爪”有75%的重合率,但在一点上有分歧:霍金没有预期来自太空的威胁,但他看到了人工智能的危险性。

霍金2014年在接受英国广播公司采访时称:“真正的人工智能的发展可能意味着人类这个物种的终结。”

他认为:“人工智能将开始独立发展并加速自我改造。而人类受到生物进化速度的限制,无法与人工智能匹敌,并将很快被其取代。”

俄科学院系统分析研究所主任研究员、未来学家协会成员亚历山大·科诺诺夫认为,英国专家和霍金指出的威胁是显而易见的,而且其中一些互为补充。例如,人工智能与核威胁和自毁文明紧密相连。

这位学者认为:“因为在核武器使用方面越来越多的解决方案依赖电脑和人工智能。如果系统出现错误——我们可能来不及检查。”

科诺诺夫称:“但对一个文明而言最危险的是,没人认真研究它的安全问题。要知道有一个包含三步的经典方法:第一,建立威胁模型;第二,建立保护模型;第三,采取最大限度防止威胁的对策。在保护文明安全的问题上毫无作为,这是最有害的。”

这位专家还说:“至于没有提到的威胁——这首先是地球物理威胁和宇宙威胁,它们是我们完全无法控制的。属于前一类的比如有火山爆发和地壳不稳定。如果地球进入火山活跃期且全球范围内的火山爆发——我们有可能面临死亡。这种威胁很多。”

科诺诺夫表示,属于宇宙威胁的不仅包括单独的小行星,还有大量其他威胁。他说:“奥尔特云和柯伊伯带的任何不稳定、超新星爆炸、游移的黑洞和暗物质无法预测的行为可能令我们瞬间灭绝。”

科诺诺夫总结称:“但其中大多数威胁可借助向太空扩张——人类殖民新星球和撤离地球计划——而加以避免。”

评论 0

  • 还没有添加任何评论,快去APP中抢沙发吧!

我要评论

去APP中参与热议吧