政治立場不過是群體認同的延伸?《善惡》深度解析脆弱的意識型態如何被操控
你是否相信自己的政治立場是經過深思熟慮後的選擇?根據《善惡》所引用的心理實驗,事實可能恰好相反。研究顯示,我們的政治信念其實非常容易被操弄與扭曲,甚至能在不知情的情況下為完全相反的立場辯護...
在人工智慧逐漸滲透生活的時代,我們的思考與學習能力也面臨新的挑戰。AI能幫助我們追蹤偏見、修正錯誤決策,甚至提醒我們避免衝動行為。但同時,把決策過度外包給AI,可能讓我們的「生物直覺」逐漸退化。透過《直覺鍛鍊》提出的科學方法,我們能更好地理解直覺與人工智慧的關係,找到一種平衡...
人工智慧是指電腦系統執行任務(包括做決策)的能力,以近似人類智慧的方式處理事務。人工智慧並非依循事先設定的程式規則,而是從既有的資料中學習,或是依據先前的學習經驗來做出選擇、採取行動。人工智慧也可以生成內容,例如創造藝術作品、文字、想法與決策。
就我們所知,現行的人工智慧並不具備意識,因此可以將它們視為無意識的行動與決策代理人。但由於我們還沒有測試意識的科學方法,因此無從得知人工智慧是否有意識。
當人工智慧從先前的資料集學習資訊後,要如何「知道」該做什麼事、不該做什麼事呢?答案是,它會將學到的資訊與結果(好或壞)建立關聯,據此做出判斷。換句話說,這是一種能預測結果好或壞的無意識學習過程。聽起來是否似曾相識?
人工智慧與直覺都涉及無意識學習,並且都能協助決策、做出決定,兩者都會受訓練資料的偏見影響。如果你接收有偏見或不正確的資料,你的直覺就會學習這些偏見,因而產生偏差或受到誤導;人工智慧使用有偏見的資料做訓練,同樣也會產生偏見。
此外,現有的人工智慧一旦脫離原本設定的環境,就很容易產生偏見、誤導,甚至根本無法運作。這點同樣適用於人工智慧訓練資料集的背景,例如寫文本與開車是完全不同的脈絡。換句話說,人工智慧就和你的直覺一樣,都與特定情境有關。
人工智慧對直覺的一種潛在應用,就是追蹤、學習個體的決策模式:「喬爾,你確定要再喝一杯咖啡嗎?上次你一天喝了三杯咖啡,結果很後悔。」或者是:「喬爾,我發現你見到那個人的時候,生理反應非常激烈,是對方說了什麼嗎?」
在一天中的無數時刻,人工智慧助理可以指出我們人類決策的偏見。雖然就如前面所說,人工智慧很可能有自己的偏見,但這並不代表我們不能利用它們來追蹤、指出自身的偏見。實際上,這就好比將「生物直覺」(biological intuition)部分或全部外包給「人工直覺」(artificial intuition)。
人工智慧的另一項有趣應用,則是幫助有成癮問題的人。就如我們先前所見,成癮者往往容易做出衝動、短視近利的決定,這時人工智慧助理就可能派上用場。當人工智慧察覺到某人做出短期、衝動的決定時,它可以提醒當事人,並且強調長期決策的價值。
不過關鍵的問題在於,如果我們持續將生物直覺外包出去,會發生什麼事?我們的生物直覺會萎縮、退化嗎?根據我們對直覺與學習的資料,生物直覺的能力需要常用才能維持,如果沒有練習,你的生物直覺就會愈來愈弱。
這個過程被稱為「弱化」(enfeeblement),可能跟電話號碼的情況類似。像我個人早就沒有記電話號碼,甚至不會想起電話號碼,因為手機會直接幫我聯繫到人,記電話號碼的工作已經交給科技了。
將思考與學習外包給人工智慧有利有弊。如果在開發這類型人工智慧的過程中,能融入心理學家與神經科學家提供的正確建議,我們似乎能創造出以人為本的科技,能夠幫助人類,而非傷害人類,也不會削弱人類的直覺能力。但這是一個「很大」的前提。如此,這些系統不僅可以用來幫助我們做決策,同時也能幫助我們學習做出更好的決策。