谷歌AI生圖「太多元化」?歷史人物膚色惹議遭暫停

2024-02-23 16:54:14
城樂

香港輕新聞編輯,關注科技和外地趣聞。

240223 2谷歌Gemini生成「美國國父」和「維京人」的人像例子(谷歌Gemini生成圖片)

谷歌新推出的AI模型Gemini,近日被用戶批評人像生成功能過度糾正對種族的偏見,例如以不同種族和性別描繪歷史人物,谷歌於22日表示將暫停Gemini生成人像的功能以糾正有關問題。

歷史白人角色被描繪為黑人

谷歌於2月推出其AI模型Gemini的最新版本,包含聊天和生成圖像的功能,但有社交媒體用戶於過去一星期發現,Gemini在生成歷史人物的圖像,尤其是歷史中的白人人物時,會經常以不同種族或性別描繪人物,AI過度糾正種族偏見的做法被用戶批評為種族歧視。

在用戶發布的例子中可見,當Gemini被要求生成「1943年德國士兵」的圖像時,會生成黑人士兵和亞裔女士兵的圖像,而在要求生成維京人、美國國父和英國國王等歷史人物時,也會偏向生成黑人頭像。

240223 3Gemini生成「1943年德國士兵」的圖像例子(谷歌Gemini生成圖片)

有谷歌前員工表示,即使向Gemini指定要生成某個族裔的人像,例如澳洲人、英國人或德國人等,AI也會把族裔弄錯,例如一個「澳洲女人」會生成為亞裔女人。該員工在X笑指:「要谷歌Gemini承認白人的存在是很難的事。」

谷歌承認歷史圖像出現過失

谷歌於22日發表聲明指,Gemini得圖像生成功能的確能生成多樣化的人像,而且世界各地的用戶都使用它,這一般是好的事,但在生成歷史圖像的情況中則出現了過失。谷歌表示,正在努力修正圖像生成功能中出現的問題,並將暫停生成人像的功能,其後會發布改進的模型版本。

谷歌Gemini團隊主管克拉夫奇克(Jack Krawczyk)在社交媒體進一步表示,谷歌的AI原則承諾圖像生成工具要「反映全球的用戶群」,將繼續為開放式的提問詞這樣做,但承認有歷史傾向的提問詞則需要進一步工作。

種族偏見為AI模型常見批評

有其他AI圖像生成模型在過去因存有不同的種族偏見而被批評,OpenAI的DALL-E模型在發展初期曾被批評出現種族或性別定型的偏見,例如生成「律師」的圖像時大多會生成老年的白人男子,「空中服務員」則會生成亞裔的年輕女人等等。OpenAI曾經表示會實施新技術,在沒有指定種族獲性別時加強DALL-E生成人像的多樣性。

發佈於 InfoTech
By 2024-02-23

手機分享本文: