把直覺外包給AI做決策真的可行嗎?利與弊一次看|《直覺鍛鍊》
在人工智慧逐漸滲透生活的時代,我們的思考與學習能力也面臨新的挑戰。AI能幫助我們追蹤偏見、修正錯誤決策,甚至提醒我們避免衝動行為。但同時,把決策過度外包給AI,可能讓我們的「生物直覺」逐漸退化。透過《直覺鍛鍊》提出的科學方法,我們能更好地理解直覺與人工智慧的關係,找到一種平衡...
在人工智慧逐漸滲透生活的時代,我們的思考與學習能力也面臨新的挑戰。AI能幫助我們追蹤偏見、修正錯誤決策,甚至提醒我們避免衝動行為。但同時,把決策過度外包給AI,可能讓我們的「生物直覺」逐漸退化。透過《直覺鍛鍊》提出的科學方法,我們能更好地理解直覺與人工智慧的關係,找到一種平衡...
退休後,很多人反而因為金錢、家庭和健康而感到更焦慮。理財作家嫺人在《有錢到老後》中提醒我們,不必事事追求完美,也不必跟別人比較,而是學會在有限的資源與時間裡,做出最智慧的選擇,享受每一次旅行、每一段陪伴,讓人生變得更自在、有溫度。
《人類大歷史》作者哈拉瑞憂心AI未來的發展,他認為,人類根本不了解這意味著什麼,以及AI接管文化可能帶來什麼後果?
ChatGPT風靡全球,推出僅 2 個月,使用者就突破上億人次。對於AI未來的發展,哈拉瑞憂心「我不知道人類能否在AI面前生存?」
曾著有《人類大歷史》、《人類大命運》、《21世紀的21堂課》(合稱《人類三部曲》)的作者哈拉瑞,近期接受《The Telegraph》的專訪,談到AI未來技術的演進時,他指出,這對民主國家威脅很大,甚至超過專制政權,因為民主依賴於公共對話。哈拉瑞進一步解釋,民主基本上就是對話,人們彼此交談。如果對話被AI接管,民主就結束了。
哈拉瑞認為,AI將發展很快、走得更遠。他判斷,「未來你上網和某人就某個政治問題進行辯論。也許他們甚至給你發送了一段他們自己講話的視頻。但背後沒有人。這全都是AI。」
今年3月,一封公開信掀起高度關注,主因是這封公開信呼籲所有 AI 實驗室應立即暫停比 GPT-4 更強大的 AI 系統訓練至少 6 個月。其中,簽署公開信的名單,除了,也包含了特斯拉執行長馬斯克、蘋果聯合創辦人沃茲尼亞克等人。
哈拉瑞認為,新一代的AI不僅僅是傳播人類產生的內容。它可以自己產生內容。他說,試著想像生活在一個大部分文本、旋律、電視劇和圖像都由非人類智能創造的世界中意味著什麼。哈拉瑞指出,人類根本不了解這意味著什麼,以及AI接管文化可能帶來什麼後果?
哈拉瑞說,在新藥投放市場之前,生技公司必須先經過漫長的監管過程。令人感到非常奇怪和恐懼的是,企業可以在沒有任何類似安全措施的情況下,將極具影響力的AI工具,投放到公共領域。
「我們需要理解,AI是歷史上第一個可以自主做出決策的技術。它可以自行決定如何使用。它還可以對您和我做出決策。這不是對未來的預測。這已經在發生。」哈拉瑞憂心。
哈拉瑞簡介
1976年出生於以色列,2002年獲得牛津大學博士學位,目前是以色列耶路撒冷希伯來大學歷史學教授。公認是目前影響力數一數二的公共知識分子。
著作《人類大歷史》、《人類大命運》、《21世紀的21堂課》(合稱《人類三部曲》)以及《人類大歷史:知識漫畫》等書,已譯為65種語文、全球銷售4,000萬本。英國《衛報》讚揚《人類大歷史》一書讓非小說類市場氣象一新,使「聰明的書」人氣大漲。
哈拉瑞擅長研究宏觀歷史的問題,例如:歷史與生物學的關係?智人和其他動物在本質上有什麼區別?歷史是否有正義、是否有明確的方向?隨著歷史開展,人類真的變得更快樂嗎?科學及工業技術在21世紀造成哪些倫理道德的問題?
2019年,他與先生亞哈夫(Itzik Yahav)共同成立 Sapienship 公司,著重於教育及娛樂領域,希望能讓公共對話聚焦於目前全球最重要的課題。