政治立場不過是群體認同的延伸?《善惡》深度解析脆弱的意識型態如何被操控
你是否相信自己的政治立場是經過深思熟慮後的選擇?根據《善惡》所引用的心理實驗,事實可能恰好相反。研究顯示,我們的政治信念其實非常容易被操弄與扭曲,甚至能在不知情的情況下為完全相反的立場辯護...
深度偽造技術利用人工智慧,可以生成高度逼真的假影像和影片。儘管此舉對個人和社會造成嚴重影響,但目前全球對於深度偽造的監管仍十分不足。
深度偽造的崛起
「深度偽造」(簡稱「深偽」)這個詞彙相對比較新,是在2017年由一位紅迪論壇用戶所提出,指一種新研發的AI技術,可以創造出超真實的偽造照片和影片,就像新時代的修圖軟體一樣。他宣稱,利用這套軟體,任何人都可以天衣無縫的把色情片演員的身體和名人的臉孔融合在一起。生成的結果就是完全造假的「色情作品」,作品裡的女性對於這些影像的產生與散布完全不知情,也沒有控制權。
深度偽造技術的研發者是一位不願透露姓名的軟體程式設計師,他對人工智慧有興趣,正在進行他所謂的「研究計畫」。他告訴《Vice新聞》的記者,他不認為這項技術有任何道德問題。就算他沒有展示這套軟體,其他人也會。而且這沒有任何法律上的問題,畢竟在當時,製作深偽影像在世界多數地方並不犯法,張貼和散布亦然,所以沒有人會去監督這套軟體的應用方式。
深偽影像是用「深度學習」技術生成。深度學習是人工智慧的一個子集,演算法先在數百萬個訓練樣本中學習模式,然後用來執行影像生成等任務。這些模型會分階段學習生成臉孔的方式:一開始先對應個別影像的所有像素,然後辨識更高階的結構,例如特定臉部或圖形的形狀。
生成式對抗網路(generative adversarial network, GAN)是其中一種能產生深偽影像的演算法,它以成對的方式運作:一個演算法就你想要複製的臉部影像進行訓練,然後生成自己的版本,另一個演算法則要判斷那個影像是真實的或是合成的。這兩個演算法會來回傳遞影像,偽造的影像在過程中會不斷微調而變得更容易讓人信服,直到偵測用的演算法再也看不出偽造痕跡。這項技術可以把臉部或整個身體處理成逼真的照片和影片,就像2020年抖音上瘋傳的湯姆克魯斯影片,那個深偽影片逼真得令人毛骨悚然。
比起專業的視覺特效工作室,生成式對抗網路能用更快的速度與更便宜的價格,生成高品質的影像和影片,因此成為娛樂產業一個很有吸引力的替代方案。迪士尼的光影魔幻工業(Industrial Light and Magic)等影像工作室,還有法蘭史多爾(Framestore)等視覺特效公司,已經在探索深偽演算法的應用方式,為廣告和電影創造超真實的電腦合成影像內容,以及名人的各種合成版本,無論他們已故或在世。
製作深偽影像的工具並非只有生成式對抗網路,隨著新的AI技術逐漸成熟,又出現「變換器」(Transformer)這種新技術,推動了生成式AI的進展。生成式AI軟體可以根據人們輸入的簡單英語描述,產生全新的影像、文本和影片,以這些系統為基礎的AI藝術工具有Midjourney、Dall-E和ChatGPT,現在已經成為我們的日常語彙。它們讓你在靈光一閃時,只要用幾個精選的字句,就可以透過簡單的應用程式和網站,以直覺的方式產生精細的圖像作品。
AI影像工具也被當作厭女的武器。Sensity AI是少數幾家追蹤深度偽造的研究公司之一,根據他們的調查,在2019年,網路上的深偽影片大約有95%都是未經同意的色情影片,而且主角幾乎都是女性。作者阿傑德(Henry Ajder)告訴我,在他做完那份研究之後,深度偽造變得太猖獗,現在要撰寫這樣的報告幾乎是不可能的任務。然而他表示,最近的研究持續顯示,大多數深度偽造的目標仍然是女性,她們因為這項技術而被極度性慾化(hypersexualized)。
今天,在深度偽造這個詞問世好幾年之後,受害者還是沒有辦法訴諸法律。在全世界大部分地區,製作和散布AI生成的私密影像依然不違法。少數國家最近把未經同意散布私密影像(包括深偽影像)定義成犯罪,例如英國在2024年宣布相關法律,還有新加坡、南韓、澳洲,以及美國加州、紐約州和維吉尼亞州等也立法禁止,但創作AI生成的影像依然落在多數國際法的管轄範圍之外。
受害者僅存的辦法是藉由主張版權,要求平臺刪除內容。社群媒體平臺在服務條款裡承諾,會移除深度偽造和未經同意的影像,甚至有一些色情網站也這麼承諾,但他們實際上通常不會處理。他們不會主動偵測這類內容,就算注意到了也不會優先考慮移除。歐盟新的立法在2023年生效,強制這些社群媒體平臺必須說明,民眾如何要求他們刪除非法內容,也強制社群媒體平臺執行這些要求,但如果相關內容(例如深度偽造)原本就沒有違法,則這項法律鞭長莫及。
在網路上,AI 並不是第一個被用來騷擾和凌虐邊緣化群體的數位技術。從隱藏式網路攝影機、修圖軟體到社群媒體,深偽技術就像先前許多比較簡單的影像技術一樣,也被一群變態和懦夫用來入侵我們最私密的空間,也就是身體。
AI 影像竄改技術之所以變得這麼威力驚人,是因為這些工具可以輕易的廣泛傳播,而且價格低廉,業餘人士都能使用。相較於前幾代的技術,AI 影像竄改技術產生的深偽成品非常逼真,而且透過監管不足的社群媒體管道,深偽成品就可以像被擴音器放大那樣,快速的傳播。當然,AI 影像竄改技術也會被用來對付不知情(更別說同意)的受害者。這項技術讓有心人可以更大規模的生產騷擾和虐待的材料。
我打開谷歌搜尋,很快就發現幾十個提供深偽色情作品的網站,我相信那些影片都是偽造的。數百部影片濫用真實女性的肖像,讓她們在逼真的性行為表演中出現。
這些影片的主角可能是好萊塢、寶萊塢和韓國流行音樂的主流明星,甚至非公眾人物,例如莫特。在莫特出現的那個網站上,她驚訝的發現有一整區都是非公眾人物的深偽內容,簡直是一個由科技催生的女性身體市場。
深度偽造並不是意外出現的AI 技術。它們是工具,卻被一些想要造成傷害的人刻意扭曲,又因為這項技術容易使用,加上機構的漠視,使它們的影響獲得放大與鞏固。機構漠視是指國家未善加管理,以及大型線上平臺不願對深偽內容的傳播負責。無論莫特或我採訪過的其他女性,她們的故事都表示出:我們集體漠視了她們的痛苦。