把直覺外包給AI做決策真的可行嗎?利與弊一次看|《直覺鍛鍊》
在人工智慧逐漸滲透生活的時代,我們的思考與學習能力也面臨新的挑戰。AI能幫助我們追蹤偏見、修正錯誤決策,甚至提醒我們避免衝動行為。但同時,把決策過度外包給AI,可能讓我們的「生物直覺」逐漸退化。透過《直覺鍛鍊》提出的科學方法,我們能更好地理解直覺與人工智慧的關係,找到一種平衡...
在人工智慧逐漸滲透生活的時代,我們的思考與學習能力也面臨新的挑戰。AI能幫助我們追蹤偏見、修正錯誤決策,甚至提醒我們避免衝動行為。但同時,把決策過度外包給AI,可能讓我們的「生物直覺」逐漸退化。透過《直覺鍛鍊》提出的科學方法,我們能更好地理解直覺與人工智慧的關係,找到一種平衡...
退休後,很多人反而因為金錢、家庭和健康而感到更焦慮。理財作家嫺人在《有錢到老後》中提醒我們,不必事事追求完美,也不必跟別人比較,而是學會在有限的資源與時間裡,做出最智慧的選擇,享受每一次旅行、每一段陪伴,讓人生變得更自在、有溫度。
GPT-4和其他AI系統能夠幫助病人理解極端複雜的醫療保健系統,無論是實際解釋保險公司的理賠說明表格,還是提供針對不同醫院或不同醫生的醫術的分析建議。理想情況下,它甚至可以消弭迄今仍然無解的宿疾:美國病患仍無法提前知道他們需要支付多少醫療費用。
圖片來源:unsplash
在理想的世界裡,當科技界出現像目前這樣的AI大躍進技術,我們的主管機關與相關單位應該準備好了,準備了完美配套的「安全防護網」,以確保新技術的正確使用。
哈!事實上,歷史表明,對新技術的監管通常落後於發明─這往往是沒辦法的,因為總需要一段時間才能讓相關的 利益與風險慢慢浮現。第一個案例是網際網路,在它被發明很久之後,才在1990年代開始受到安全、隱私等方面的法律和規定管制;第二個案例是關於汽車,第一條要求所有汽車必須裝備安全帶的法律要等到1968年才出現;第三個案例是1996年通過的《健康保險可攜性和責任法案》(Health Insurance Portability and Accountability Act,簡稱 HIPAA),它雖然旨在保障醫療隱私,但在管理醫療紀錄方面卻未觸及社群媒體會如何為了市場行銷用途或其他無法預期的目的,去利用個人醫療資料。
當涉及到GPT-4及其類似產物在醫療用途上的應用時,我們只處於該落後時期的初期階段。因此,現在是廣泛、深思熟慮地考慮如何確保最大安全性和最大可使用性的時刻。
對於思索如何處理像GPT-4這樣新科技的醫學監管機構來說,好消息是他們絕對不是從零開始。對於之前那些較為狹隘的AI系統來說,他們可以尋找前人走過的路徑來規範醫療器械和藥物。在美國,FDA(U.S. Food and Drug Administration, 即美國食品藥品管理局,本書以下全部簡稱 FDA)已批准了數百種得到AI協助的工具,並制定了醫療軟體醫材(Software as a Medical Device,簡稱 SaMD)的框架。正如我們在第四章中所提到的,全球各地的監管機構(包括歐洲、中國和澳洲)已經制定出類似的準則,通常將醫療AI工具做為醫療器材加以監管。壞消息是所有經過批准的AI系統都只能執行非常狹窄的功能,例如識別掃描圖像中的腦出血或癌症;而 GPT-4全方位的醫學能力使其成為一個非常不同的實體。這是我們在第四章中討論的,即以實驗和實習醫生兩種不同模式進行訓練與評鑑的效果區別。此外,這個模型進步得如此迅速,以至於監管機構對於相關的迫切問題經常都沒有答案,或者只有部分的答案。
一個名為健康人工智慧聯盟(Coalition for Health AI)的跨部門組織提出了一份藍圖,旨在確保醫療AI從公平性、透明性到可靠性等各方面都值得信賴。 該團體的共同創辦人約翰.哈拉姆卡(John Halamka)是梅約診所平台(Mayo Clinic Platform)的總裁,也是一位長期從事醫療資訊系統研究的學者。他表示,第一件需要確保的是模型的來源:數據從哪裡來?是網際網路上全部未經過濾的資料,還是只有諸如「公共醫學」(PubMed)這樣的醫學出版資料庫?此外,AI產出的結果也需要經過測試,以確定它們是否優於對照組。而且可能會有一個特殊的機構來對AI進行認證,並且─他的夢想─建立一個AI工具和系統的國家註冊機制。
不過,哈拉姆卡目前將新AI模型的用途分為兩大類:低風險類和高風險類。對於病患不會造成什麼危險的用途,譬如給保險公司寫信,僅需較少的監管或規範。另一方面,危險性較高且可能直接影響病患的應用,應該進行「強制性人工審查」,包括編輯、核准以及如果出現問題,由人類承擔責任的事項。正如我們之前所討論的,我們都同意「人的參與」(human in the loop)是必須的。
無論如何,GPT-4和其他AI系統能夠幫助病人理解極端複雜的醫療保健系統,無論是實際解釋保險公司的理賠說明表格,還是提供針對不同醫院或不同醫生的醫術的分析建議。理想情況下,它甚至可以消弭迄今仍然無解的宿疾:美國病患仍無法提前知道他們需要支付多少醫療費用。或許,我們會決定電腦程序不能成為最終的報銷決策者,而必須有一名人員專職負責提出異議或上訴。這可能會阻礙許多新商業模式的發展,但這是我們為了堅守這個社會的核心價值所必須犧牲的。
一旦我們從研究和實際案例中了解到更多,那接下來呢? 哈拉姆卡表示,新的AI並不是萬靈藥,也不應該被禁止;相反地,「讓我們正確使用它,加以適當的監督和管理,那麼它對所有人都是有益的。」
這聽起來像是我們在本章開頭提到的理想世界。但在我們實際生活的混亂、不完美的世界中,更有可能的結果似乎是監管機構將評估醫療AI的淨效益和風險。這不會是沒有風險的,但一些容易獲得的藥物,如阿斯匹靈和醫用大麻,也同樣存在一定的風險。最終,他們需要在風險和效益、創新和審慎之間取得平衡,這些平衡在過去的藥物和醫療設備問世的過程中都很熟悉,但現在必須應用於全新的醫療領域。
The AI Revolution in Medicine: GPT-4 and Beyond