推特“頭像裁剪”算法更愛“白幼瘦”!瑞士小哥用StyleGAN2識破算法癖好,登頂懸賞賽
如今,社交媒體當道。
相信不少人在首次注冊社交媒體時,平臺都會要你上傳一張照片當做頭像。
有人會選擇喜歡的明星,也有人會用自己的真實照片。
但這都不是最關鍵的,可能你沒有發現,在上傳頭像照片時,平臺對某些照片存在不同程度的偏好。
比如,某些平臺內置的算法會偏愛膚色較淺、紋理較光滑且沒有戴眼鏡的照片,或者是更年輕的面孔:

而這已經在推特得到了證實。
根據國外多家媒體報道,推特的照片裁剪算法存在較大的漏洞,算法在預覽和聚焦不同照片中的“亮點”時,對膚色、胖瘦、性別和年齡有不同的優先級。
也就是說,算法會更偏好“膚色更淺、更苗條、更年輕”的面孔,而不是“膚色更深、臉型更寬、年紀更大”的面孔。
對此,有網友指出,如此看來,算法也稱得上是某種極端主義者了。

用StyleGAN2拆解推特算法的偏好
這個研究結果來自瑞士聯邦洛桑理工學院的研究生Bogdan Kulynych。
在推特贊助的“算法漏洞懸賞大賽”中,Kulynych發現,推特的照片裁剪算法對照片中的特征存在不同程度的偏好。
Kulynych使用StyleGAN2生成了大量逼真的面孔,他根據膚色、身材、年齡和女性化等標簽對這些面孔進行了分類,然后將這些數據放入了推特的照片裁剪算法中。
Kulynych發現,推特的算法對膚色有著最為明顯的偏好趨勢,算法更喜歡那些“苗條、年輕、具有典型女性面部特征”的面孔。

其次便是年齡,該算法對灰頭發和白頭發的用戶存在明顯的歧視行為。緊接著的是圖片中的文字,相較于阿拉伯數字,算法會更喜歡英語。

GitHub鏈接:
https://github.com/bogdan-kulynych/saliency_bias
Kulynych在總結中補充說:“當應用算法時,這些內部偏見本質上會轉化為代表性不足的危害,從而剔除那些不符合算法對體重、年齡、膚色偏好的人。”
Kulynych在大賽中獲得了第一名,推特稱Kulynych的發現“展示了算法模型如何放大現實世界的偏見和社會對美的期望”。

推特不喜歡iPhone?漏洞得到官方承認
在更早的時候,相關漏洞就已經被指出。
去年,一位推特用戶試圖發布他在Zoom的面部識別中注意到的一個問題,即在通話中沒有顯示出一位黑人同事的臉,當他發帖到Twitter上時,他注意到推特同樣更偏向于他的臉而不是黑人同事的臉。

這對卡通人物同樣適用。

甚至,還有網友發現,與iPhone相比,推特的算法更傾向于顯示微軟已停產Windows手機。

當推特首次上線照片裁剪功能時,研究人員在博客文章中解釋了他們如何從面部識別開始裁剪圖像,但實際上,并非所有的圖像都包含人臉。
此外,人臉檢測器會經常漏掉人臉,也會在沒有人臉的情況下錯誤地檢測到人臉。如果沒有發現人臉,視角會自動地被聚焦在圖像中心,這可能會導致尷尬的裁剪圖像。

隨后,推特官方也進行了調查,他們發現:
在男性和女性之間,人口統計學上的平等偏向于女性的差異為8%;
在黑人和白人的比較中,白人和黑人的人口比例相差4%;
在黑人女性和白人女性的比較中,白人女性在人口平等方面的差距為7%;
在黑人和白人男性的比較中,白人男性在人口統計學上有2%的差異。

同時,推特還通過隨機選擇100張男性和女性呈現的圖像來測試“男性凝視”,這些圖像在圖像中具有多個被算法識別為顯著的區域,并觀察模型如何選擇裁剪圖像。
他們發現,每組每100張圖像,沒有裁剪到頭部位置的情況大約3張,在這種情況下,算法會裁剪圖像的其他特征,例如運動衫上的字母。
5月,推特下線了圖片裁剪功能,只允許用戶完整地發布照片,或自己決定如何裁剪照片。
“我們的結論之一是,并不是推特上的所有東西都適合使用算法,在這種情況下,如何裁剪圖片是一個最好由人做出的決定。”推特軟件工程總監Rumman Chowdhury在一篇關于該團隊發現的博文中寫道。
Chowdhury表示:“當我們考慮模型中的偏見時,不僅僅是關于學術或實驗,而是它與我們在社會中思考的方式有關。”
如何對待算法偏見?
近年來,隨著人工智能的逐漸發展,算法偏見也開始得到了重視。
對于此,英國謝菲爾德大學計算機專家Noel Sharkey表示,應該在可能改變生活方式的所有領域中禁止使用算法。
Sharkey對一系列機器學習系統存在偏見的現象深表擔憂,Sharkey表示:“現在有很多偏見發生,從工作面試到社會福利,再到決定誰應該保釋誰應該入獄等等,很明顯我們必須停止使用決策算法。我一直對監管非常重視,我認為它會扼殺創新。”
“但后來我意識到,有些創新應該被扼殺,或者至少要有所保留。因此應該暫停所有影響人們生活的算法,這些算法并沒有在發揮實際用處,反而在加深人們的偏見。”
Sharkey曾與谷歌和微軟等公司就偏見問題進行了交談,“他們知道這是一個問題,過去幾年他們也一直在努力尋找解決方案,但到目前為止還沒有找到”。
“在實驗室里,系統可以對白人男性的識別率達到98%,但女性的識別率會偏低,深色皮膚的人效果會更下一層樓。在后面兩種情況下,我們都可以說,系統并不能準確識別人臉。”
歸根結底,算法背后是人,算法偏見背后其實就是人的偏見,算法的選擇也就是在大數據處理之后人的選擇。在針對相關現象進行批評時,更應需要關注現實中的偏見,保持內省。
這對每個人來說,都極為重要。
相關報道:
https://www.dailymail.co.uk/sciencetech/article-9879871/Twitters-photo-cropping-algorithm-favours-young-beautiful-light-skinned-faces-study-confirms.html
https://blog.twitter.com/engineering/en_us/topics/insights/2021/sharing-learnings-about-our-image-cropping-algorithm
https://www.theguardian.com/technology/2019/dec/12/ai-end-uk-use-racially-biased-algorithms-noel-sharkey
*博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。







