減重焦慮不是你的錯!減重名醫蕭捷健《碳水循環》:你不是意志力不夠,而是選錯了方法
蕭捷健醫師在《碳水循環》中溫柔呼籲:體重焦慮不是你的錯,你只是選錯了方法。本書針對常見減重迷思,提出與身體合作、非極端的科學方法,幫助你改善代謝、找回健康與快樂。無需禁澱粉、不必自我折磨,讓瘦身成為自然且可持續的生活節奏。
蕭捷健醫師在《碳水循環》中溫柔呼籲:體重焦慮不是你的錯,你只是選錯了方法。本書針對常見減重迷思,提出與身體合作、非極端的科學方法,幫助你改善代謝、找回健康與快樂。無需禁澱粉、不必自我折磨,讓瘦身成為自然且可持續的生活節奏。
《善意與信任》揭示了網路時代中人際關係的變化,探討在市場思維與社群媒體滲透下,傳統的「共享關係」如何被「交換關係」取代,導致信任感下降與人際疏離。從心理學觀點出發,作者指出數位量化與社會比較讓我們愈來愈難真誠互動,也讓自我價值感受到衝擊...
GPT-4是一個具有聊天介面的強大AI。的確,一開始,你可以想像 GPT-4為ChatGPT應用程式提供了更多、更多的智慧。與GPT-4 的互動,不僅僅是使用電腦系統,而是相當於發展出一段人際關係。
圖片來源:unsplash
未曾接觸過AI系統的用戶通常一開始會將其視為一種智慧搜索引擎。事實上,你可以透過提供搜尋查詢來使用該系統。例如,我們可以問GPT-4:
正如你所看到的,GPT-4並不像搜尋引擎那樣運作,雖然它可以與Bing這樣的搜尋引擎整合在一起使用,實際上它不是搜尋引擎。相反地,GPT-4會嘗試給出有邏輯的答案而非一頁網路連結和廣告。事實上,GPT-4不只提供答案,它的核心在創造對話。
所以,舉例來說,我們可以透過問另一個問題延續以上的討論,比方:
也許你已經試過與智慧手機系統(如Apple的Siri)或智慧型喇叭(如Amazon的Alexa或Google的Google助理)進行交談。如果你有使用過這些系統,你一定曾經在對話時讓這些系統聽不懂你在說什麼(或是你聽不懂它們在說什麼!), 即使是非常簡單的對話。其中一個造成混淆的原因是,直到現在,AI系統很難持續追蹤掌握對話的上下文。例如,上面的「它」指的是我們之前問的二甲雙胍,而GPT-4輕鬆地理解了這一點。事實上,我們可以更進一步地進行對話。像任何專心跟我們說話的人一樣,即使在我們下達的提示中沒有提到二甲雙胍,GPT-4 明白我們仍在談論它。
GPT-4 整合到我們生活中的最大問題和障礙之一,特別是在醫學領域中,當一個決定可以決定生死的時候。
與任何強大的科技一樣,GPT-4不僅提供新的能力,還 帶來新的風險。一個大家都知道、但很少人了解為什麼的問題是GPT-4杜撰編造資訊的傾向─有時被稱為「幻覺」 (hallucination)。例如,在GPT-4的開發早期,當它仍被稱為Davinci3時,我們通過以下問題繼續上述對話,但獲得了奇怪的回答:
我們可能會對Davinci3在這裡表現出的幽默感到好笑,但是當它應用於醫療場合時,這樣開玩笑就一點也不好笑,相反的,這極其惱人。因此,很多開發工作都花了大量心力去了解 「幻覺」可能發生的狀況,並想辦法予以改善。事實上,在今天公開發布的GPT-4版本中,我們得到了完全不同的回應。
然而,杜撰編造資訊的可能性依然存在,因此毫無疑問, 在醫療環境下使用GPT-4將需要非常審慎,對許多人來說這將是有爭議的。
在本書的後面我們將看到,在大多數情況下,檢查或驗證GPT-4的輸出是否正確非常重要。有趣的是,我們將看到GPT-4非常善於進行自我檢查與檢查人類的工作是否正確。例如,我們可以啟動第二個GPT-4,並將那場幻覺對話的副本餵給它:
我們將在第三章更深入地探討推理,包括關於原因和結果之間關係的推理。但一個重要的觀點是,到目前為止,AI系統一直專注於在大量數據中尋找「相關性」(correlations)。 例如,AI系統會識別在網絡上搜尋「豐田 Prius 評論」的人和 汽車保險購買者之間的匹配。但就像那句老話所說,「相關不蘊涵因果」(correlation does not imply causation)。
在醫學上,這個區分非常重要,因為相關性可能會產生危險的誤導。例如,當我們去研究吃很多義大利麵是否會引起高 血糖,必須知道這兩件事情是否僅僅是剛好經常一起發生,或者是有更深層的原因,這是很重要的。在當今的資訊科學中,AI系統是否能夠具備這種推理能力的問題是一個引發大量研究和激烈議論的主題。對某些研究人員而言,因果推理仍是只有人類獨有的思維能力。
GPT-4是否具備因果推理的能力,超出了本書的範圍, 我認為最好的說法是,這件事情尚未有定論。但如果我們問GPT-4本身,它會給出一個細緻的答案:
GPT-4聲明它能夠模擬因果推理並不一定是真的。但如我們稍後所見,GPT-4在其回應中的解釋通常有意外的深度。
我是一名電腦科學家,不是醫生。雖然本書的許多讀者都 是受過醫療訓練的專家,但我猜想大部分讀者和我一樣對醫學知識知之甚少。當然,大多數使用GPT-4的人可能沒有接受過正式的醫學教育,也沒有從事過醫療保健或研究工作。對於我們大多數人來說,GPT-4上面的回答可能太專門或太技術性 了。幸運的是,GPT-4 可以「簡化」(dumb down)自己的回答,讓許多讀者都能理解,包括像我這樣的醫學門外漢。
在本書的後半部分,我們將深入探討GPT-4的「翻譯」能力,讓大家看到一方面它如何幫助專家,一方面又能賦予普通 人對健康和醫療保健更多的了解與掌握。
在此之前,我們看到當系統仍被稱為Davinci3且尚在早期發展階段時,它傾向於捏造資訊。其中一個基本的謎團是,這種傾向似乎與它的一項重要能力有關,即能夠「直覺」人們可能正在經歷什麼,並想像在任何特定情況下他們的內心在想什麼。例如,對於我們正在進行的對話,我們可以要求GPT-4想像一個患有此類醫學問題的患者此時此刻的感受。
在本書的稍後部分,我們將看到,能夠想像情感,甚至可能與人同理,竟然成為GPT-4最引人入勝的方面之一。它讓我們瞥見系統創作者在排除它的幻覺方面所遇到的困難,因為這可能與想像模擬一個人可能的心理狀態有關。當然,與AI系統進行此類互動對某些人可能也具有爭議性,因為讓機器去揣摩、評估一個人的情緒有時會令人感覺不安。
然而,在我們對這個系統如何進行醫療應用的研究調查中,我們進一步了解到在現實世界中的問題。真正對醫生造成龐大壓力的,並不是如何破解一個充滿疑難的診斷案例,或艱難的治療決策,也不是堆積如山的臨床文件工作量─儘管我們將會看到GPT-4真的能夠幫忙處理這些事情。但或許最重要的是,GPT-4能以某種方法,幫助醫生應對在一般人看來最凡俗的一項任務:如何與病人交談。GPT-4常常以驚人的清晰度和同理心做到這一點。
除了能成為輕鬆交談的對象、能夠推理解決問題和擁有醫 學知識,本書中我們將反覆看到GPT-4似乎能發揮人類經驗的某些方面,包括我們的文化、情感和社交禮儀的重要性。有時候,無論我們多麼努力地抗拒將AI系統視為人類,GPT-4確實能展現出同理心,成為我們在解決醫療目標方面的真正夥伴。
The AI Revolution in Medicine: GPT-4 and Beyond