政治立場不過是群體認同的延伸?《善惡》深度解析脆弱的意識型態如何被操控
你是否相信自己的政治立場是經過深思熟慮後的選擇?根據《善惡》所引用的心理實驗,事實可能恰好相反。研究顯示,我們的政治信念其實非常容易被操弄與扭曲,甚至能在不知情的情況下為完全相反的立場辯護...
家長常以為 YouTube Kids 安全,但《達爾文陷阱》提醒我們,平台演算法推動假冒卡通氾濫,從《汪汪隊立大功》到AI生成的怪異影片,都可能對兒童造成傷害。
2017年,《紐約時報》的一篇頭版文章詳細說明了 YouTube Kids 上令人不安的趨勢。那是廣受歡迎的影片分享服務的兒童版,每個星期的點閱次數超過一千一百萬次,絕大部分來自於幼兒。因為家長相信,平臺提供的影片適合兒童觀看,能夠讓孩子轉移注意力,並且得到娛樂。但是在卡通與教育影片之下,隱藏了數量驚人的詭異且不當的短片,並且以適合闔家觀賞的內容,加以包裝。
那些影片通常是走紅卡通的廉價未授權仿冒品、備受喜愛角色的拙劣仿製品,做出了極度偏離期待的行動。《紐約時報》報導在其中一支影片中,以大受兒童喜愛的《汪汪隊立大功》角色的「粗俗」版本為噱頭,那些角色會在車子撞上燈柱並且著火時尖叫。其他的影片還包括「黏土蜘蛛人尿尿在《冰雪奇緣》的艾莎身上,以及小尼克兒童頻道中的角色出現在脫衣舞酒吧中。」
這些不恰當的影片一開始是怎麼出現在 YouTube Kids 上?問題的答案和我們一直在討論的達爾文式惡魔,有直接關聯。上一章提到,這些惡魔般的選擇壓力會鼓勵我們盡力完成狹隘的目標,並且以非常特定的方式進行評估。在這些惡魔的影響之下,我們採取的選擇與策略可能提高短期的生存機會,但同時也會以出乎意料的方式傷害環境。
要瞭解這些目標狹隘的最佳化策略是怎麼嚴重傷害 YouTube Kids,先得瞭解一下應用程式(App)強大的演算法。絕大部分的觀眾在使用 YouTube 時,一開始是搜尋特定的上傳者或是影片。但是在看完了想看的內容之後,YouTube 希望你能夠留下來看更多影片。為了達成這個目的,網站利用了複雜的推薦引擎。
人類在推薦時,根據的是內容品質和原創性,但是YouTube的演算法則多少有點不受內容所限。YouTube 是納入了其他許多因素,例如影片的標題,或是今天流行的話題,甚至是使用者以前看過哪些影片,就此來決定哪些影片要推薦上來,哪些要隱藏起來。也因此,許多專業的 YouTube 影片製作者,覺得被迫要為演算法飄忽的好惡來製作影片,畢竟演算法握有生殺大權,決定了影片是否能吸引到夠多的點閱,以便賺取那微薄的廣告收入。換句話說,觀看YouTube Kids 的兒童並不是那些恐怖影片的目標受眾,演算法才是。
觀看 YouTube Kids 的兒童,可能一開始看的是合法的《汪汪隊立大功》,但是接下來,應用程式可能會開始給兒童觀看那些在演算法看來是相似的內
容:表面上看起來和最初的影片相似,但實質上是不同的。最後,兒童看到的可能是廉價的仿冒影片,其中假造的《汪汪隊立大功》角色遭受到嚴重車禍。與成人及青少年不同,幼兒可能無法區別這兩類影片的差異。也由於正牌影片和仿冒影片都正中演算法的紅心,YouTube Kids 也無法區分這兩類影片。
所以想像一下,現在是 2017 年,你是上傳了影片到 YouTube Kids 的創作者,想要盡可能滿足演算法的需求,以便把獲利提到最高。在這種情況下,比較合理的方式是搞出高利潤、低成本的垃圾影片,而不是投入許多心力製作出原創影片。
事實上,一如作家布萊德爾(James Bridle)於 2017 年在網路平臺上發表過的文章所說,顯然許多造成問題的影片,根本是由 AI 軟體做出來的,生成方式是根據提示,產生了大量影片,其中某些便剛好有超出法律規範的內容。那些是 AI 軟體為了 AI 演算法所打造出來的內容,受到池魚之殃的是不幸看到影片而遭受心理創傷的兒童。