霍金因其在物理學(xué)和宇宙學(xué)方面的開創(chuàng)性工作而廣為人知,其理論主要試圖來解釋宇宙是如何運作的,但他對地球和人類的未來的看法一直極其悲觀。 2016年初,霍金就核戰(zhàn)爭、全球變暖、基因工程病毒和人工智能(AI)帶來的危險發(fā)出了警告。2017年,在BBC播出的紀錄片《史蒂芬·霍金:探索新地球》中,霍金預(yù)測人類只有100年的時間來移民另一個星球。隨著氣候變化、遲早會到來的小行星撞擊、流行病和人口增長,使地球環(huán)境越來越不穩(wěn)定。人類必須在100年內(nèi)找到另一顆可以生存的星球,否則將會滅絕,因為地球已經(jīng)進入“不可逆轉(zhuǎn)的地步”。為了使人類免于諸如巨大的人口增長、污染、森林砍伐和流行病等問題,必須成為一個多星球物種并發(fā)現(xiàn)新世界。 關(guān)于地球,霍金預(yù)測:地球?qū)⒃诓坏?00年的時間里變成一個火球,氣候變暖對人類來說是一個潛在的災(zāi)難性終結(jié)。到那時,地球?qū)丝谶^剩,燃燒化石燃料所產(chǎn)生的二氧化碳含量上升將使地球燃燒的紅色,全球變暖,但最壞的情況是,地球環(huán)境將與金星相似,人類將滅亡。金星的平均溫度約為250攝氏度,經(jīng)常會下硫酸雨,風(fēng)速可達每秒100米。 盡管霍金生活本身就依賴于人工智能,但他不相信人工智能。他曾經(jīng)說過,人工智能可能是“人類文明史上最糟糕的發(fā)明”,因為它可能會完全取代人類。2014年,霍金在接受BBC采訪時表示,他擔(dān)心繼續(xù)發(fā)展人工智能會帶來災(zāi)難性的后果,人工智能的發(fā)展可能意味著人類的終結(jié)。原話是“人工智能將會自行運行,并以越來越快的速度重新設(shè)計自己。人類受限于緩慢的生物進化,無法競爭,將被取代。” 此外,霍金也還有關(guān)于外星人、核戰(zhàn)爭和基因工程病毒方面的悲觀預(yù)測和想法,但是關(guān)于地球與小行星碰撞毀滅,霍金并沒有強調(diào)會出現(xiàn)在哪一年,只是悲觀地認為那一天遲早會來,只是時間問題。 不過2032年確實有觀測到一顆小行星可能與地球發(fā)生碰撞,這顆小行星已經(jīng)被列入潛在危險小行星的名單,被稱為2013 TV135,是在烏克蘭南部的克里米亞天體物理觀測站發(fā)現(xiàn)的,撞擊產(chǎn)生的爆炸相當(dāng)于25億噸TNT炸藥威力的核彈,這塊直徑410米的小行星軌道與地球軌道之間的最小距離170萬公里,在2032年8月26日與地球相撞的幾率為63000分之一(0.0016%),換句話說,這意味著目前2032年不發(fā)生撞擊的可能性約為99.9984%。碰撞可能性需要等到2028年才真正可以確定,目前這顆小行星是NASA“哨兵風(fēng)險表”(Sentry Risk Table)的榜首,哨兵風(fēng)險表監(jiān)控掃描著未來100年內(nèi)與地球相撞的小行星的可能性。 |
|