均質的叢集,或是意識形態的產物?Google Gemini 和生成式 AI

日期2024.7.18

今年初,Google 的人工智慧模型 Gemini 因產生具有種族偏見的歷史圖像,而受到廣泛批評,導致該功能被迫暫時下架。然而,這並不表示,Google 自始便意圖打造具有種族偏見的人工智慧模型;實情恰恰相反,為了解決 AI 工具中的種族偏見問題,Google 致力確保 Gemini 能夠順應不同使用者的需求,生成各種圖像。

只是,為了達成上述願景,Gemini 開始矯枉過正(overcorrected)地生成許多與現實歷史相悖,甚或抵觸冒犯的圖像。舉例來說,即便用戶僅要求生成特定現實人物的圖像,Gemini 仍會在考慮多元性(diversity)的前提下,生成非裔臉孔的美國開國元勳、非裔維京人、亞裔納粹軍官、女性教皇等明顯與現實相悖的人物。對此,Google 知識與資訊部門資深副總裁 Prabhakar Raghavan 表示,Gemini 試圖確保圖像生成能夠包含各種人物,但卻未考慮即便具備「多樣性」,仍可能引發諸多極具冒犯性的情況。

此一事件,彰顯了即便生成式 AI(Generative AI)皆透過大量資料訓練而成,但電腦科學家及工程師所開發的大型語言模型,亦將直接影響生成式 AI 的表現與結果。同時,這些模型生成的產物,並非僅是重組與轉換模型資料的結果,更可能隱含服務提供者/企業置入其中的意識形態。換言之,生成式 AI 始終具有立場,且並不會被其身後狀似「集體」的大量數據所弭平。

日前,關於生成式 AI 的研究已指出,諸多大型語言模型中,以標準美式英語(Standard American English,SAE)作為預設輸出,正造成語言上的排他效應,並使其成為一具意識形態機器;那麼,共享相似技術條件的生成式圖像或文字生成圖像 AI(text-to-image generative AI)服務所生產之圖像,是否亦不只為「均質」(mean)的叢集,更可能是藏有特定意識形態的產物?
 

有關「均值」影像的討論,可參考:Hito Steyerl, "Mean Images," NEW LEFT REVIEW, 140/141, Mar/June 2023.(中譯:希朵・史戴爾著,溫澤元譯,〈均值/惡劣的影像〉,收錄於《攝影之聲》,35 期(2023),頁 26-37。)