
(SeaPRwire) – 上週,一個由科學、宗教和政治領袖組成的聯盟呼籲全球禁止發展超級智慧:在所有認知任務上都超越人類的人工智慧。我是早期簽署人之一,與諾貝爾獎得主如Geoffrey Hinton;全球被引用次數最多的AI科學家Yoshua Bengio;前總統Donald Trump的顧問Steve Bannon;前參謀長聯席會議主席Mike Mullen;以及哈利王子和薩塞克斯公爵夫人梅根等一同簽署。
是什麼讓這個聯盟團結起來?是迫切且無可爭辯的危險。科技公司正投入數十億美元,競相盡快達到超級智慧。沒有人知道如何控制遠比任何人類更有能力的AI,但我們正越來越接近開發它們,許多專家預計,按照目前的進度,超級智慧將在未來5年內出現。
這就是為什麼頂尖AI科學家警告說,發展超級智慧可能導致人類滅絕。
禁止超級智慧的必要性
一旦我們開發出在所有領域都比我們能力強大得多的機器,我們很可能將受制於控制它們的人或國家。或者我們將受制於超級智慧機器本身,因為目前沒有任何國家、任何公司、任何個人知道如何控制它們。理論上,一個超級智慧AI將追求自己的目標,如果這些目標與維持人類生命不相容,我們將被毀滅。
更糟的是,AI開發者不了解當前強大AI系統的實際運作方式。不像橋樑或發電廠是根據精確的人類規格設計的,今天的AI系統是通過其創造者無法解釋的過程,從龐大的數據集中生成的。即使Anthropic執行長Dario Amodei也承認,我們只「理解它們運作方式的3%」。
儘管存在這種危險,超級智慧仍然是領先AI公司的核心關注:OpenAI、Anthropic、Google DeepMind、Meta、xAI、DeepSeek。鑑於這些公司市值飆升,它們不會自行停止。
全球各國政府必須在為時已晚之前介入。然而,國際局勢並不樂觀。我們生活在一個地緣政治緊張日益加劇的時代,美中之間充滿競爭。各國正爭相投入數十億美元建設數據中心以支持AI,而開發和部署危險AI系統的監管卻比開一家新餐廳或蓋一棟房子還要少。
如何禁止超級智慧
在這種氣候下,國際社會有可能禁止發展超級智慧嗎?
是的,因為我們以前也曾達成過此類全球禁令。
1985年,在英國南極考察隊三位科學家的幫助下,全世界發現南極上空出現臭氧層破洞。造成這場大氣災難的罪魁禍首是氯氟烴(CFCs),一種無處不在的工業化學品。如果不及時採取行動,破洞將會持續擴大,數百萬人將因缺乏紫外線防護而罹患皮膚癌或失明。
但數百萬人並沒有袖手旁觀。科學家們用彩色衛星圖片和清晰的健康後果討論,使威脅變得具體可見。非政府組織策劃了對大型品牌的抵制,並引導數千名憂心忡忡的公民寫抗議信。全球學校開展了教育計畫,聯合國也認可了公眾意識宣傳活動。
1987年,也就是臭氧層破洞被公之於眾僅兩年後,所有現存國家都簽署了《蒙特婁議定書》。《蒙特婁議定書》是在冷戰期間簽署的,它證明了即使在地緣政治緊張局勢中,也有可能達成迅速果斷的國際協議。
一個關鍵因素是臭氧層破洞危及了世界上幾乎所有人。它不是一些人推給另一些人的外部性問題,而是每個人都會受苦的問題。超級智慧是類似的普遍威脅:對AI失去控制意味著即使是開發它的人也無法倖免於其危險。因此,超級智慧帶來的滅絕風險有可能跨越所有分歧。它可以團結不同政黨、宗教、國家和意識形態的人們。沒有人希望自己的生命、家庭、世界被毀滅。
當人們了解超級智慧及其造成的滅絕風險時,許多人看到了危險並開始擔心。就像臭氧層破洞一樣,這種擔憂必須轉化為公民參與,建立一個全球運動,與各國政府合作,使禁止超級智慧成為現實。
不幸的是,大多數立法者仍然不了解超級智慧的威脅及其緊迫性,而AI公司現在正部署龐大的遊說力量來打壓監管AI的嘗試。
對抗這種龐大遊說努力的最佳辦法是讓立法者聽到他們的選民對超級智慧的真實想法。很多時候,立法者會發現他們的大多數選民都希望他們對超級智慧說「不」,並對人類能夠生存和繁榮的未來說「是」。
在政治參與度下降和黨派分歧加劇的時代,禁止超級智慧是一個跨越政治光譜、團結人們的常識性議題。
與臭氧層耗損一樣,發展超級智慧會讓所有人蒙受損失。我們知道可以建立避免這種命運的運動。
唯一剩下的問題是:我們能足夠快地建立起來嗎?
本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。
分類: 頭條新聞,日常新聞
SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。
