簡要說明
- Harari表示,AI應被理解為主動的自主代理,而非被動的工具。
- 他警告說,建立在語言基礎上的體系,包括宗教、法律和金融,面臨來自AI的更高風險。
- Harari敦促領導人,應該在被動接受決策之前,主動決定是否將AI系統視為法律人。
歷史學家及作家Yuval Noah Harari於週二在世界經濟論壇上警告,人類正面臨失去對語言——他稱之為決定性「超能力」——的控制的風險,因為人工智慧愈來愈多地以自主代理的方式運作,而非作為被動工具。
《人類大歷史》的作者Harari,已成為關於人工智慧對社會影響的全球性辯論中的常見聲音。他指出,法律條文、金融市場和組織化宗教幾乎完全依賴語言,這使得這些體系特別容易受到能夠大規模生成和操縱文本的機器的影響。
「人類之所以能征服世界,不是因為我們身體最強壯,而是因為我們學會如何用語言使成千上萬、甚至數十億陌生人合作,」他表示。「這就是我們的超能力。」
Harari指出,建立在神聖文本基礎上的宗教,包括猶太教、基督教和伊斯蘭教,並認為AI閱讀、記憶並綜合大量著作的能力,可能讓機器成為最具權威性的經文詮釋者。
「如果法律是由語言組成,那麼AI將接管法律體系,」他說。「如果書籍只是語言的組合,AI就會接管書籍。如果宗教是由語言構建,AI就會接管宗教。」
Harari在達沃斯還將AI系統的擴散比作一種新型態的移民,並表示圍繞這項技術的辯論很快將聚焦於政府是否應賦予AI系統法律上的人格。包括猶他州、愛達荷州和北達科他州在內的數個州,已明確通過法案規定AI不能被視為法律上的人。
Harari最後警告全球領袖,應加速針對AI的立法,不要認為這項技術將永遠只是中立的僕人。他將當前對技術的推動比作歷史上僱傭兵最終奪權的案例。
「十年後,你將無法再決定AI是否應在金融市場、法庭、教會等場合作為個體運作,」他說。「到那時候,已經有人替你做了選擇。如果你想影響人類的未來,現在就必須做出決定。」
Harari的評論對於那些擔憂AI不斷擴展的人而言或許是當頭棒喝,但並非所有人都同意他的觀點。華盛頓大學語言學家Emily M. Bender教授認為,像Harari這樣描述風險,只會將注意力從真正負責建構和部署AI系統的人類和機構身上移開。
「在我看來,這其實是在混淆那些建造這些系統的人與企業的行為,」Bender告訴
Bender否定了「人工智慧」這一詞彙描述了某種明確或中立的技術類別的觀點。
「人工智慧這個詞,其實並不指涉任何連貫的技術集,」她說。「它本質上一直都是行銷術語,」並補充道,旨在模仿醫生、律師或神職人員等專業人士的系統,並沒有正當的應用場景。
「一個能夠聽起來像醫生、律師、神職人員等的系統有什麼意義?」Bender說。「其本質就是詐騙。就這麼簡單。」
儘管Harari提到越來越多地利用AI代理人來管理銀行帳戶與商業互動,Bender則表示,真正的風險在於人們過於輕信那些看似權威、但實際上缺乏人類問責的機器生成輸出。
「如果你有一個系統,能夠讓你提問並得到一個看似答案的東西——這個答案被剝奪了原本的語境,也沒有人會為這個答案負責,但卻被包裝成來自某種無所不知的神諭——你可以想像大家會希望這種東西存在,」Bender說。「我認為這裡的風險很大,人們將開始依賴這類輸出,並用它來塑造自己的想法、信念和行動。」

