把直覺外包給AI做決策真的可行嗎?利與弊一次看|《直覺鍛鍊》
在人工智慧逐漸滲透生活的時代,我們的思考與學習能力也面臨新的挑戰。AI能幫助我們追蹤偏見、修正錯誤決策,甚至提醒我們避免衝動行為。但同時,把決策過度外包給AI,可能讓我們的「生物直覺」逐漸退化。透過《直覺鍛鍊》提出的科學方法,我們能更好地理解直覺與人工智慧的關係,找到一種平衡...
在人工智慧逐漸滲透生活的時代,我們的思考與學習能力也面臨新的挑戰。AI能幫助我們追蹤偏見、修正錯誤決策,甚至提醒我們避免衝動行為。但同時,把決策過度外包給AI,可能讓我們的「生物直覺」逐漸退化。透過《直覺鍛鍊》提出的科學方法,我們能更好地理解直覺與人工智慧的關係,找到一種平衡...
退休後,很多人反而因為金錢、家庭和健康而感到更焦慮。理財作家嫺人在《有錢到老後》中提醒我們,不必事事追求完美,也不必跟別人比較,而是學會在有限的資源與時間裡,做出最智慧的選擇,享受每一次旅行、每一段陪伴,讓人生變得更自在、有溫度。
智慧的定義並沒有「標準答案」,而是有各種不同的說法,其中包括邏輯的強度、理解能力、規劃能力、情緒控管、自我意識、創造力、解決問題的能力、學習力等等,不一而足。
圖片來源:pixabay
什麼是智慧
我太太和我前不久有幸出席一場關於人工智慧的研討會,主辦單位是瑞典諾貝爾基金會。其中一場專題演講中,頂尖的人工智慧專家被問到要怎樣定義智慧時,花了很長的時間交換意見,結果沒有取得共識,這讓我們倆覺得滿有趣的:就連研究智慧的聰明專家也都沒辦法定義什麼叫做智慧!
這就表示智慧的定義並沒有「標準答案」,而是有各種不同的說法,其中包括邏輯的強度、理解能力、規劃能力、情緒控管、自我意識、創造力、解決問題的能力、學習力等等,不一而足。
在進入探討智慧之前,我希望先提出一個最廣義、最籠統的定義,而且不要被現有的智慧形式定型了。這就是我在第一章曾經提過,而且會貫穿全書維持不斷的廣義定義:
智慧 = 達成複雜目標的能力
這樣就可以滿足種種不同的定義,因為不論是理解能力、自我意識、解決問題的能力和學習力,都可以算是複雜目標。這個定義也與《牛津字典》的講法:取得與運用知識和技能的能力,並行不悖,只要把運用知識和技能設定成複雜的目標就行了。
由於複雜目標多到族繁不及備載,所以就會有各種可能的智慧。依照我們的定義,用智商*這樣單一的數字量化人類、動物或是機器的智慧高低,就會變成沒有意義。
只會下西洋棋的電腦跟只會下圍棋的電腦,哪一台比較聰明?這個問題的答案不會有意義,因為這兩者擅長的項目不同,無法直接比較,不過如果有第三台電腦,能以同樣的水準達成所有目標,而且會有一項表現得比其中一部電腦更好(像是能下贏西洋棋),那麼說第三台電腦比較聰明,就沒有多大爭議了。
用一刀兩斷的方式判定有沒有智慧也是沒有意義的,因為能力指涉的範圍如同光譜,未必都符合全有或全無的特徵。新生兒跟電台主持人,誰能夠達成說話的目標?當然是後者。不過,如果是能講十個單字的嬰兒,或能講五百個單字的嬰兒呢?你有辦法劃出那條界線嗎?
我刻意在定義中選用「複雜」這個語意不清的詞,因為要以人為方式劃出有無智慧的界線,實在很沒意思,而且把簡單的量化,改為呈現達成不同目標的能力,更為有用。對不同的智慧分類時,區分有限或廣泛智慧也相當重要。
IBM深藍電腦專門用來下西洋棋,在1997年還擊敗過世界棋王卡斯帕洛夫(Garry Kasparov),不過它只能達成下西洋棋這麼有限的目標—別看深藍電腦的軟硬體設施有多麼厲害,事實上它就連跟四歲的小朋友玩井字棋都會輸。
Google旗下DeepMind開發的DQN人工智慧系統,可以達成稍微廣泛的目標:它可以在數十種雅達利(Atari)古董級電動遊戲中,跟人類拚得不相上下,甚至有機會贏過人類。
人類的智慧與之相比就廣泛得太多了,熟練幾十種令人嘆為觀止的技巧都不是問題。只要給頭好壯壯的小孩子夠多的訓練,別說任何遊戲都能來上一手,還有能力開口說任何語言、從事任何運動跟職業。
以現階段人類和機器的智慧相互比較,我們輕而易舉就能大獲全勝,機器只能在少數有限的範圍內贏過人類,只是項目正持續增加。研究人工智慧的終極目標是打造「通用人工智慧」,盡可能擴大廣泛的範圍:幾乎可以達成任何目標的能力,包括學習在內,相關論述將在第四章呈現。
由於雷格(Shane Legg)、葛貝德(Mark Gubrud)和格吉爾(Ben Goertzel)三位人工智慧專家特別強調人類水準通用人工智慧是,「起碼能和人類一樣達成任何一種目標的能力」,「通用人工智慧」一詞才流行了起來,所以除非是特別強調〔比方說以「超人工智慧」代表「超越人類的通用人工智慧」(superhuman AGI)〕,否則我會依照定義,直接用「通用人工智慧」(AGI)代表「人類水準通用人工智慧」)。*
雖然「智慧」一詞通常有正面意涵,但請注意,我們是採取中性的角度看待:著重的是達成複雜目標的能力,不管這個目標是好是壞。也就是說,聰慧之人有可能樂善好施,也有可能專門害人,這部分留待第七章再討論。
我們也有必要釐清所謂的目標,指的到底是誰的目標;假定你將來擁有做為個人助理的全新機器人,這個機器人沒有自己的目標,完全依照你的吩咐行事,而你要求它準備一頓豐富的義大利佳餚。收到指令的機器人開始上網搜尋義大利食譜、找出最近的超市去採買、學習怎樣做義大利麵,如此這般。最後它順利買回食材弄出大餐,酒足飯飽的你想必會認為它聰明得可以。
實際上,這頓飯原本就是你設定的目標,機器人則是在你提出要求後,接收了你的目標,然後井然有序替自己設定了好幾個子目標,包括超市結帳和磨碎帕馬森起司都算在內。在這個案例中,能否使命必達是判定智慧行為與否的必要條件。
對我們人類而言,工作的困難度理所當然會跟我們要付出多大代價去完成有關。但是將這種標準套用到電腦上就不適當了。要我們算出314,159乘以271,828可比認出照片中的朋友難多了,但是電腦早在我出生以前,就展現出遠遠超出人類的算術能力,但直到最近才開始有辦法像人類一樣辨識圖像。
莫拉維克悖論(Moravec paradox)指的就是這種看似簡單的感受能力,背後其實卻需要耗費龐大運算資源的現象,也說明了為什麼人類的大腦能輕鬆完成辨識工作,因為我們投注了龐大的客製化硬體設施在這個領域—確切的規模超過我們腦容量的四分之一。
*這並不難理解,想像你能否認同以下的說法就夠了。假定有人宣稱站上奧運殿堂的能力,可以用叫做「運動商數」(簡稱AQ)的數字量化,則所有單項賽事的冠軍一律頒給選手中運動商數最高的那位就對了。
*有些人喜歡把「人類水準人工智慧」或是「強人工智慧」(strong AI)視為「通用人工智慧」的同義詞,不過這兩種說法都會有點問題,一是口袋型電子計算機也能算是一定程度的人類水準人工智慧,二是「強人工智慧」的反義詞是「弱人工智慧」(weak AI),但是如果把有限人工智慧系統如深藍電腦、華生電腦和AlphaGo 當成是弱的,也滿奇怪的。
【書籍資訊】
《Life 3.0》