負責設立末日時鐘的美國芝加哥大學《原子科學家公報》會在每年1月調整分鐘,越接近12點,即代表人類社會離末日更近。
過去數十年,影響該時鐘撥動的主要因素是核戰爭。千禧年後,氣候變化也成為另一影響末日時鐘的指標,但接下來,人工智慧(AI)很可能才是最能影響人類距離世界末日有多近的關鍵因素。
據《經濟學人》報道,這項研究的參與者包括美國芝加哥聯邦儲備銀行經濟學家卡格爾(Ezra Karger)及發明「超級預測師」這一詞彙的美國賓夕法尼亞州大學政治學者泰特洛克(Philip Tetlock)。
該研究找來兩組人馬,分別針對可能導致人類社會發生重大災難,甚至滅絕(世界末日)的幾種威脅做出預測。
其中一組人馬,是近年來因精準預測某些事件(如美國前總統特朗普當選)而聲名大噪的超級預測師。
(註:所謂的超級預測師,絕非看水晶球或塔羅牌預言的占卜師之流。相反的,他們精於計算機率,排除個人偏見,因而較一般常人更擅長預測未來,有時甚至比特定領域專家更精準。)
另一組人馬則是名副其實的專家。他們當中包括研究核戰、生化戰爭、AI,以及人類滅絕等相關領域的專家。
「超級預測師」組別共有89人,專家組則包括65名相關領域專家,以及15名專精人類滅絕風險課題的專家。
兩組術業有專攻的人士被賦予相同的任務:評估世界未來發生重大災難及人類滅絕的可能性。
重大災難及人類滅絕的定義如下:
超級預測師比較樂觀,他們認為重大災難的可能性約為9%,人類滅絕的可能性則是1%。
但值得注意的是,兩組人馬皆認為AI是人類世界遭遇重災或滅絕的最大威脅。
長期以來被認為最可能導致人類滅亡的核子危機,反倒不再是威脅之首。
在「重大災害部分」,核子危機位居AI之後排名第二;「人類滅絕」部分,更是排到了「人造病毒」之後,位居第三。
超級預測者認為AI造成重大災難的中位數機率為2.1%,導致世界末日(人類滅絕)的機率則是0.38%。
相較之下,專家的預估悲觀得多。他們認為AI引發重大災難的機率為12%,並有3%的機率導致世界末日。
由於AI科技在2010年代才問世,近一兩年才受到廣泛關注,這讓超級預測師沒有太多可用於分析的歷史數據。
但除此之外,超級預測者還傾向認為,一旦AI造成較小規模的災難,人類將實施嚴格的監管措施,避免更嚴重的事件發生。
專家則不認為人類會那麼「識相」,他們擔心,商業及地緣政治的誘因可能凌駕人類對AI的擔憂。即使AI真的帶來了一些實質傷害,人們仍會因利大於弊的考量而放任其發展。
換言之,AI是否會把人類推向世界末日,取決於人們未來如何看待這項急速發展的科技。
包括被譽為「AI教父」的辛頓(Geoffrey Hinton)在內的一群科學家早前已聯署呼籲,降低AI技術帶來的「人類滅絕」風險應被列為全球優先事項。
美國前國務卿基辛格也對AI技術崛起,可能加速第三次世界大戰發生感到不安。
末日之鐘自設立以來已先後調整過25次,俄烏戰爭的爆發,讓末日時鐘距離午夜僅剩90秒,是有史以來最接近世界末日威脅的紀錄。
事在人為的隱喻再明顯不過,人類本身才是讓世界更接近末日的罪魁禍首。
就如核彈本身並不會直接導致世界末日,人類如何運用它才是關鍵。因此,與其說AI技術可能導致世界末日,不如說人類如何運用AI技術,將決定我們究竟距離世界末日還有多遠。