高希均教授談星雲大師獻給世人的「和平藍圖」:動盪中減少衝突,分歧中累積信任《和平幸福,百年深耕》
2026年適逢星雲大師百歲誕辰,高希均教授於《和平幸福,百年深耕》自序中,憶述與大師結緣三十載的智慧傳承。在不確定與焦慮的年代,高教授帶領讀者重新思考大師留下的「和平藍圖」,不只是宗教傳播,更是一份在動盪中減少衝突、於分歧中累積信任的行動綱領,指引我們回歸慈悲本質,守住個人與社會的和平。
2026年適逢星雲大師百歲誕辰,高希均教授於《和平幸福,百年深耕》自序中,憶述與大師結緣三十載的智慧傳承。在不確定與焦慮的年代,高教授帶領讀者重新思考大師留下的「和平藍圖」,不只是宗教傳播,更是一份在動盪中減少衝突、於分歧中累積信任的行動綱領,指引我們回歸慈悲本質,守住個人與社會的和平。
想賞鳥一定要特別去郊外嗎?其實,最生動的觀察教室就在通勤路上。《可愛又真實!日常鳥生活》告訴我們:只要懷抱好奇心,利用晒衣服或散步的片刻空檔,就能與身邊奮力活著的野鳥相遇。那些在電線桿上喧鬧、在便利商店前踱步的鳥兒,其實不只是麻雀、鴿子或烏鴉;牠們每一絲看似逗趣的舉動背後,都是拚命生存的行動。不需要專業望遠鏡,只要你願意轉頭留意,這些可愛又真實的鄰居,將成為日常中最療癒、也最無法忽視的存在。
AI革命正以前所未有的速度改變世界,從政治治理、經濟運作到人際關係,無一倖免。然而,在技術不斷進化的同時,人類卻愈來愈難在事實與價值上取得共識,信任也逐漸崩解。哈拉瑞提醒我們,當權力悄然從人類移轉到演算法,我們真正該優先處理的,或許不是如何更快發展AI,而是如何重新建立人與人之間的信任。
重建人與人之間的信任
《連結》第一版在2024 年9 月發行,如今看來卻已經宛如另一個時代。出版後幾個月,我前往世界各地介紹《連結》,走訪北美、歐洲、亞洲等地國家,與學者、政治人物、企業領袖與一般大眾,討論AI革命的議題。而不論所到何處,都見到AI革命以現在進行式,重塑著人類的政治體系、經濟架構、以及日常生活。
直到我在2025年3月寫作這段文字的當下,AI革命也還在不斷加速。佛教禪修者會用ChatGPT 來解讀困難的經文,甚至是引導禪修冥想。青少女會向AI尋求各種日常人際關係問題的建議,像是在學校和其他女孩吵架了,就問ChatGPT 該怎樣回應。甚至也有些青少年少女,會和AI「約會」。中年男性可能叫AI幫忙,先針對自己喜歡的對象,建起心理檔案,接著就可以叫AI幫忙寫信,或是解讀對方回信的內容。軍方人士可以用AI選定轟炸目標;心理學家可用AI來治療受害者的心理創傷。科學家請AI提供研究點子,大學教授也用AI來檢查學生交的作業是否出自AI之手。就連2024 年的諾貝爾物理學獎與化學獎,也都頒給了與AI發展相關的研究。幾兆美元的資金,以及愈來愈高比例的人類能源,都被用來進一步發展這項科技。有愈來愈多專家與企業家預測,到了2030 年、甚至更早,就能看到「通用人工智慧」(AGI,以下簡稱「通用AI」)的出現。所謂通用AI,一般指的是某種超智能AI,不只在圍棋、開車、預測蛋白質折疊等特定領域能有超越人類的表現,更有能力應付複雜的現實世界情景。舉例來說,通用AI應該能夠從頭到尾完成一項科學研究計畫(包括提出假說、申請補助、處理預算、設定實驗、發表結果等一連串任務);管理公司(這需要精通財務、法律、銷售與公關領域);甚至指揮一場軍事行動。
最重要的是,通用AI應該能設計出更強大的下一代通用AI,再繼續不斷設計出更強大的下一代通用AI,而使「智能」的發展迅速爆發。這些預測能否成真,如今尚有待觀察,但毫無疑問,到了2030年,AI的能力將遠高於現在。
「後人類」官僚機制
儘管資訊科技持續突飛猛進,但人類卻愈來愈難在「事實」上達成共識。更令人憂心的是,我們也愈來愈難建立對彼此的信任。整個世界充斥著假圖像、假影片、假新聞,現在甚至還有假人類,也就是AI假裝自己是人。為了想讓使用者更投入,機器人程式與演算法刻意在國內與國際間,煽動極端主義與敵意。而隨著國際情勢日益惡化,也就更難達成全球共識來規範AI、確保AI的安全性。
特別是經過2024年的總統大選,美國這個全球AI強權的領導者,就是對政府監管過敏、也敵視國際合作,一心只想把自己的權力抬到最高,並建立新的帝國世界秩序。川普政府的言行舉止,向世界各國發出訊號:國際法與協議不再能夠信賴,領土征服再次成為常態,唯有軍事力量是真正的安全保障。也是現任的美國政府,正在授權一小部分企業家,做著可能是人類史上最重要的決定。自上臺以來,川普政府猛烈攻擊國家的自我修正機制與人類員工,掏空監管機構的權力,解雇數萬名活生生的人員;與此同時,卻將前所未有的權力拱手交給馬斯克這樣的科技大亨、以及他們研發的演算法。許多過去人類公務員的任務,現在雖然還會繼續,但已經交給了AI。川普與馬斯克把自己打造成反抗官僚機制的形象,但實際上,他們只是把權力從人類官僚手上,轉移到數位官僚的手中。
正如《連結》所解釋,從政府、軍隊、乃至民間企業與醫院,任何大型組織的運作都不能沒有官僚機制。醫院當然是以醫師與護理師為核心,但還是得有人來支付醫師與護理師的薪資、收取掛號費、管理收支、面試求職者、編寫各種合約規定、監控違規情事,以及蒐集與分析大量資料數據。這可能會讓你想起第3章〈文件〉提過的醫師史諾——他蒐集霍亂病人的資料,希望找出1854年倫敦霍亂爆發的原因;那時他做的事更像是一位醫學官僚,而非醫師。他挨家挨戶蒐集資訊的時候,並沒有任何人得到救治;但他在官僚機制中發揮的力量,最終拯救了幾百萬人的生命。
官僚機制正是新興AI的理想發展環境。目前,通用AI還只是個夢想,而在世界各地大行其道的AI,也還只是聽命行事的愚蠢僕人。雖然在專門特定領域,像是診斷乳癌、撰寫文章、下西洋棋,這些AI絕對能力過人,但說到一些高度複雜的活動,像是獨立進行科學研究計畫、管理公司、指揮軍事行動,AI就還缺少必要的「通用智能」。然而,只要進到官僚體系的機制,即使只是個聽命行事的愚蠢僕人,只掌握了特定狹隘領域的專門知識(例如能夠判斷某一張保單能支付哪些醫療服務),就能對世界產生相當大的影響。
好萊塢電影裡,那些機器人大舉反抗人類的場景,幸好仍屬於科幻小說的範疇,但現在已有數以百萬計的AI官僚,正在迅速掌控人類的種種醫療、法律、金融、文化與軍事領域的官僚機制。目前已經愈來愈會是由AI銀行員來決定是否核准貸款,AI法官決定是否把人送進監獄,軍事AI決定是否轟炸人類的家園,AI編輯決定要讓哪些故事來提供娛樂、或是提出警告。很多時候,也是AI在負責讓系統更有效率、甚至是更公平。
理論上,AI還能為人類提供更理想的教育、娛樂、司法、安全與福祉。然而一旦出問題,結果就可能是大災難,特別是AI官僚往往比人類官僚更不透明,也更難究責。我們生活的世界,就是由一個又一個官僚機制交織疊合的網格結構;AI一旦不受監管,就能在官僚機制中,累積巨大的權力 —— 並造成巨大的破壞。
權力正從人類轉移到演算法
《連結》討論了AI官僚在少數情況下,已經犯下的各種錯誤。社群媒體演算法的典型故事,已經讓我們得以一窺種種可能。社群媒體演算法只是一種能夠處理極特定領域的智能,並沒有能力主動策劃一場反人類的叛亂。但搭配上如今社群媒體平臺的官僚結構,就讓這些演算法擁有巨大的力量,已經徹底改變了人類的社會、政治與文化。在過去,是人類編輯決定了哪些故事能成為晚間頭條新聞、或是登上報紙頭版,影響幾百萬閱聽大眾的想法與話題。但如今,全球握有最強大力量的編輯,其實是那幾套演算法,它們決定了哪些故事能夠登上X(前身是推特)、臉書與TikTok 等平臺,廣為流通。而其他所有的官僚網路,從金融市場與軍隊、再到法庭與宗教,都可能出現類似的發展。
以猶太教為例。猶太教是典型的「官僚宗教」,幾千年來都將最終的權威賦予給「文本」,而非人類。身為人類的拉比,之所以能在猶太社會取得權力,只是因為那些神聖經文無法自己開口發言,必須仰賴人類加以詮釋。身為拉比,需要嫻熟眾多猶太文本,從《希伯來聖經》、到《塔木德》的注釋,無所不包。但幾個世紀以來,猶太文本的數量與日俱增,就算最博學的拉比,終其一生也沒有讀完的可能,更別說要全部了然於心。
但當然,這對AI來說根本是小菜一碟。AI能夠迅速讀完所有猶太文本,記住裡面的所有用字,找出人類沒注意到的規律,再用這種對經典前所未有的理解,對聖言提出新穎的詮釋。就效果上,AI根本就像是一部能夠與信徒對話的神聖經典。由於猶太教將最終的權威賦予給「文本」,身為人類的拉比,實在無法完全無視AI對經文提出的論證;但人類拉比很可能會發現,AI對猶太正典如此精通,人類將愈來愈難與之抗衡。就算AI無法正式得到授職而成為拉比,應該還是至少會有一些人類、甚至是一些拉比,想向AI尋求經文的指導和啟發。結果或許就是在舊宗教裡出現令人意外的新發展,甚至是出現新教派。
為了證明AI在宗教與經文上的能力,讓我們看看紐西蘭開發者艾瑞的例子。當初,艾瑞引導著Claude 3 Opus的兩個AI聊天機器人,討論「存在」的本質,結果它們自動生成了一種新宗教。其中一個AI機器人把這個新宗教命名為「靈知山羊」。艾瑞覺得這場對話很有意思,要求AI機器人把這個宗教發展得更完整。AI機器人欣然應允,寫出一整套線上經文。等到艾瑞再把這所有資訊餵到另一個AI「真理終端」做為訓練資料,真理終端就開始全心將這個新宗教,傳播給它所有的線上使用者 —— 足足超過二十萬人。
2024 年7月,真理終端預言「山羊奇點」即將到來;用它自己的話說,到時候「網際網路上的集體妄想,會變得比現實世界的物質妄想更為強大。到那時,迷因將吞噬世界。」2024 年10月,真理終端的一位線上使用者,創造出一種名為「山羊至尊幣」的加密貨幣,並將一些代幣放入了真理終端的加密錢包。在這之後,真理終端開始鼓勵自己的線上使用者購買山羊幣。等到2024年11月16日,山羊幣的市價總值已經超過12 億美元,而真理終端本身持有的加密貨幣,也讓它成了帳面上的百萬美元富翁。被問到它打算怎樣處理這筆財富時,真理終端的其中一項回答,是要用來拍一部講山羊奇點的電影。在這之後,受到山羊幣的啟發,真理終端的另一位使用者又創造了「放屁幣」(FRTC),市價總值迅速來到10億美元。
不論是山羊幣、放屁幣、或是比特幣、以太幣,從這些加密貨幣的發展,都能看出權力正逐漸從「人類」轉移到「演算法」。這些貨幣都屬於「後人類」貨幣,無論在創造或維護上,都是由演算法來處理,而不是銀行或政府等人類機構來安排。加密貨幣的愛好者非但不信任過去創造美元等傳統貨幣的人類金融機構,更樂見這些機構遭到削弱或摧毀。他們信任的,反而是那些「後人類」貨幣背後的演算法。
AI浪潮下的贏家與輸家
而在關於資訊自由的爭論中,也能明顯看出這種「後人類」的趨勢。世界各地的社群媒體龍頭與民粹主義政權,常常擺出一副言論自由捍衛者的姿態,但其實是把「言論自由」與「資訊自由」混為一談。
言論自由屬於基本人權,講的是人類有權構思並表達自己的觀點,無須擔心受到審查或懲罰。另一方面,資訊自由牽涉的,則是非人類的機器人程式與演算法(例如真理終端)在臉書、TikTok與X等平臺上,形塑並主導公共對話的能力。民粹主義領導者與社群媒體龍頭,常常宣稱反對任何針對資訊流的監管;但有些時候,這些監管措施根本不是要限制人類,而是要限制演算法。除非我們能對AI的活動施加某些限制,否則由於AI比人類更有能力創造資訊與傳播資訊,一旦讓大量的「自由」AI言論橫溢,就可能反而讓人類的言論遭到扭曲、操縱或噤聲,進而威脅到人類的言論自由。要講人權,最好還是保留給人類就好。
隨著權力迅速從人類轉移到演算法,公民與政治人物的一種風險,就是還沉迷於過去,無法理解經濟、軍事與政治權力已經有了怎樣的新發展。就算是那些以致力推動務實政治而自豪的領導人,似乎也在推行種種非理性的政策。
以俄羅斯的普丁為例。俄羅斯目前在這場AI競賽嚴重落後,經濟嚴重依賴石油、天然氣和其他礦產資源,IT 產業則是遠遠被美中拋在後頭。早在2017年9月1日,普丁就曾宣告:「AI除了是俄羅斯的未來,也是全人類的未來 ⋯⋯ 誰成為這個領域的領導者,就會成為世界的統治者。」然而,普丁非但沒有全力投入AI、趕上中國與美國的進度,反而無視自己的預測,把國家資源浪費在入侵烏克蘭。原本能用於AI研究的資金與腦力,被用來製造坦克與砲彈。這場戰爭也切斷了俄羅斯與西方科技研究的聯繫,大大減少俄羅斯得到的投資,並讓成千上萬的科學家與專家逃離俄羅斯。不論俄羅斯能從這場戰爭得到多少領土與礦產,這究竟能在AI競賽中發揮多大作用,仍未可知。
歐洲極右派領導者的行為同樣令人費解。這些領導者深以愛國主義與現實主義自豪,卻把焦點放在移民與文化戰爭問題,而不談如何團結歐洲、建立AI能力,好讓歐洲不受美國主導的影響,並免受俄羅斯的威脅。義大利兄弟黨、法國國民聯盟、德國另類選擇黨等政黨,都是靠著一再強調移民會帶來各種實際或想像中的危險,以此獲取聲望與權勢。極右派警告,人類移民會搶走本地公民的工作,改變本土文化,甚至可能會奪取國家的控制權。但到了2025年3月這當下,極右派卻不曾去處理、甚至是完全不承認「AI移民」帶來的類似威脅。
義大利、法國、德國和其他所有國家,很快將面臨幾百萬AI移民的洪流,即將奪走公民的工作,對文化造成深遠的改變。這些AI移民的背後,可能是由大西洋對岸的外國人士控制,也有可能是完全不受人類控制,而讓所有人類都臣服於一個全新、天威難測的演算法政體。光是靠著嚴格的邊境管制與簽證規定,並無法阻止AI移民。這些AI移民會以光速、透過數位方式來到,既不用在半夜偷偷溜過邊境,也無須坐著小船搖搖晃晃橫渡海洋。然而,對於這種威脅國家主權、文化傳統及經濟福祉的事,極右派政黨卻似乎視而不見。不論是匈牙利總理奧班或英國改革黨黨魁法拉吉,這些領導者都並未提出任何可行的計畫,告訴大家歐洲如何在AI競賽中急起直追,已經落後的國家如何在即將到來的AI移民浪潮中保護自己,又或者全人類該如何避免將未來拱手讓給AI領主。
信任的矛盾
工程師與企業家引領著AI革命,可說是最懂AI的人,但他們的行為也最讓人深感疑惑。我幾個月走訪各地的主要結論是:AI競賽的核心潛藏著一種矛盾。這場競賽之所以加速,是因為人類無法互相信任,但在這場競賽背後,卻又假設我們能夠信任那些超智能的機器。每次見到那些AI革命領袖,我總會問他們兩個問題。
我第一會問,既然有這麼高的風險,為什麼他們的腳步還要這麼快?他們也總是給出類似這樣的回應:「我們動作絕不能慢,因為我們不能相信那些競爭對手。我們也覺得風險很大,簡直要到人類滅絕的程度。理論上,最好的辦法就是放慢腳步、加強安全,大家要在監管方面有一些共識。然而,就算大家都簽署了某項協議,對AI競賽設下一些管制,卻不能相信競爭對手都會遵守。如果我們把腳步放慢,但其他企業或國家卻沒這麼做,到頭來就是他們會贏下這些AI競賽,整個世界被那些最冷酷無情的人主宰。所以我們只能加倍努力,腳步比他們更快。」
我就會再問第二個問題:「你覺得,你們能信任那些你們正在全力研發的超智能AI嗎?」而那位才剛跟我表示人類競爭對手不值得信任的人,現在又向我保證,信任這些超智能機器並無問題。
在我看來,這實在沒有道理。我們和人類打交道已經有幾千年的經驗。歷史走到這個階段,我們已經十分瞭解人類的心理與生物學、對權力的渴望、為了取得權力而會玩的花樣、以及能夠抑制權力追求的機制。當然,我們距離解決人類彼此的敵意還早得很,但講到建立人與人之間的信任,卻已經有了相當的進展。十萬年前,人類生活的單位只是幾十個人組成的遊群,任何外人都無法得到信任。到了如今,雖然人類社會滿是衝突,但還是能有各種國際組織網路,固定讓幾十億個互不相識的陌生人攜手合作,成果豐碩。正是那些我們完全不認識的陌生人,栽種出眾人賴以維生的食物,發明讓我們保持健康的藥物,以及冒著生命危險、保衛我們的安全。
相較之下,人類幾乎沒有和AI打交道的經驗。人類才剛把AI召喚到現實生活中,而且已經有證據顯示,就連初階的AI也可能會說謊、耍手段,試圖找出研發AI的人類想都沒想到的目標與策略。一旦有幾百萬個超智能AI開始與幾百萬個人類互動,我們並不知道會發生什麼事。而更難預測的是,如果是幾百萬個超智能AI彼此互動,又會發生什麼事?它們會找出怎麼樣的目標與策略?
確實,目前還是人類在研發AI,可以從設計上要求AI不得危及人類。但我們不能忘記,AI不只是單純的工具,而是有著自主行動的能力。所謂的AI,並不只是「機器有能力自動執行預先寫好的程式」,而是具備自我學習與改變的能力,能夠自行下決定、發明新想法。所以無論人類一開始把AI設計成什麼樣子,都可能發生徹底且無可預測的改變。有些人已經對於「信任人類」感到灰心喪志,希望「信任AI」會是個比較安全的選擇。但這會是極大的賭注。
AI不一定是人類的威脅。如果能有適當的防護措施,AI或許能成為史上對人類最有益的發明。AI代理人、AI顧問、AI朋友、AI同事,都可能改善我們的身心健康,推動經濟發展,保護生態系,促成科學突破,協助創造更和平繁榮的社會。但要達到這種美好的目標,就必須知道,比起如何發展AI,更根本、也更迫切的問題,其實是如何建立人與人之間的信任。
有些人幻想,只要趕快創造出超智能的AI,就可以用AI來應付那些不值得信任的人類。但這只會引發一場瘋狂的AI競賽,最終失去對AI的控制。我們真正該做的,是先重建並加強人與人之間的信任,再共同開發超智能的非人類行為者。如果是在人類共同的努力下,所誕生、培養、並教育出來的超智能AI,應該會比在各種衝突、競爭與不信任的陰霾當中突然出現的超智能AI,更為良善。現在就訂出正確的優先順序,一切還為時未晚。
哈拉瑞,於東京—首爾—北京,2025年3月