你能識別出哪一幅藝術(shù)作品是AI創(chuàng)作的嗎?
即使是最有經(jīng)驗(yàn)的藝術(shù)家,有時也無法將AI藝術(shù)作品與人類藝術(shù)作品區(qū)分開。在巴塞爾藝術(shù)展上,有53%的觀眾認(rèn)為這些作品全部來自人類。
而事實(shí)上,它們?nèi)縼碜粤_格斯大學(xué)(?Rutgers University )藝術(shù)與人工智能實(shí)驗(yàn)室團(tuán)隊(duì)創(chuàng)建的神經(jīng)網(wǎng)絡(luò)AI。
AI已經(jīng)學(xué)會識別經(jīng)典藝術(shù)作品的創(chuàng)作風(fēng)格和手法,并將其融匯貫通創(chuàng)作出全新的藝術(shù)作品。以上作品的創(chuàng)作素材來自于15世紀(jì)至20世紀(jì)1000多個藝術(shù)家的80000多幅畫作,這些畫作涉及印象派繪畫,立體派繪畫,以及文藝復(fù)興早期繪畫等不同風(fēng)格。
憑借快速、高效且絲毫不遜色于人類的創(chuàng)作能力,AI已經(jīng)被廣泛應(yīng)用于藝術(shù)生成領(lǐng)域。但隨著AI作品的日益增多,我們不得不思考一個問題:在其被稱為“黑匣子”的藝術(shù)創(chuàng)作過程中,AI算法是否存在偏見?
近日,來自美國Fujitsu AI Lab的研究人員發(fā)表了一項(xiàng)最新論文:《藝術(shù)史視角下的生成藝術(shù)偏見》
AI藝術(shù)創(chuàng)作背后的三大偏見
在論文中,研究人員通過因果模型DAG,對現(xiàn)有AI藝術(shù)創(chuàng)作工具和作品進(jìn)行了測試,以發(fā)現(xiàn)它是否存在偏見。
為了確保研究的準(zhǔn)確性,他們調(diào)查了學(xué)術(shù)論文中的AI模型、在線AI平臺以及相關(guān)應(yīng)用程序,并選擇了藝術(shù)風(fēng)格(文藝復(fù)興藝術(shù)、印象主義、表現(xiàn)主義、后印象主義和浪漫主義)、流派(風(fēng)景畫、肖像畫、戰(zhàn)爭畫、素描和插圖)、材料(木版畫、雕刻、繪畫)以及藝術(shù)家(亨特、瑪麗·卡薩特、文森特·梵高、古斯塔夫·多雷、吉諾·塞維里尼)等多個類型的AI藝術(shù)作品進(jìn)行了評估。
在一項(xiàng)測試中,他們發(fā)現(xiàn)AI生成藝術(shù)工具 Abacus存在明顯的性別偏見,如皮耶羅·迪科西莫(Piero di Cosimo)的畫作《一個年輕人的肖像》是一位留著長發(fā)的年輕男性,但它卻識別成了女性(iii-iv)。
另外,還有些AI工具可能涉及種族主義偏見。如GoArt,它允許用戶以其他藝術(shù)家的風(fēng)格重新繪制圖片的平臺。在表現(xiàn)主義創(chuàng)作中,GoArt將克萊門汀·亨特(Clementine Hunter)的黑人女族長的臉從黑色變稱了紅色。
而德西德里奧·達(dá)·塞蒂加納(Desiderio da Settignano)在文藝復(fù)興時期創(chuàng)作的白色雕塑《喬維內(nèi)托》,在表現(xiàn)主義轉(zhuǎn)換中,面部顏色沒有變成紅色。
此外,類似于GoArt的一款A(yù)I工具Deepart在藝術(shù)風(fēng)格識別方面也存在明顯缺陷。如根據(jù)下面中心圖《瑪麗·埃里森小姐》(現(xiàn)實(shí)主義風(fēng)格)轉(zhuǎn)換而來左圖,并沒有呈現(xiàn)出表現(xiàn)主義的藝術(shù)特點(diǎn)。
右圖為表現(xiàn)主義作品:恩斯特·路德維希·基什內(nèi)爾(Ernst Ludwig Kirchner)的《爾納》。
無論是AI繪畫,還是寫作,或者創(chuàng)作音樂。其基本原理都是先通過龐大數(shù)據(jù)集訓(xùn)練,學(xué)習(xí)相關(guān)知識,然后再經(jīng)過AI模型,完成訓(xùn)練和輸出。
研究人員認(rèn)為,以上輸出之所以存在偏見,根本原因應(yīng)歸咎于訓(xùn)練數(shù)據(jù)集的不平衡。主要體現(xiàn)在兩點(diǎn)上:一是數(shù)據(jù)集的收集受到了人為偏好的影響。例如,他們發(fā)現(xiàn)AI應(yīng)用程序Portraits,其使用的45000幅文藝復(fù)興時期的肖像畫大部分是白人。
二是數(shù)據(jù)集的標(biāo)記可能存在不一致,或者是模型在學(xué)習(xí)標(biāo)簽來注釋數(shù)據(jù)集的過程中產(chǎn)生了偏差。不同的注釋者有不同的偏好、文化和信仰,這些都可能反映在他們創(chuàng)建的數(shù)據(jù)標(biāo)簽中。
最后研究人員也警告稱,AI研究人員和實(shí)踐者在檢查、設(shè)計(jì)及應(yīng)用過程中應(yīng)充分考慮社會政治背景因素,通過錯誤地建?;蚝雎詣?chuàng)建數(shù)據(jù)集的某些細(xì)節(jié),AI生成藝術(shù)可能會引起人們對社會、文化和政治方面的誤解,或引起不必要的爭議和沖突。
目前,無論是業(yè)界還是學(xué)術(shù)界,對于AI算法可能存在的偏見已經(jīng)引起廣泛的注意,因?yàn)樗呀?jīng)多次挑起種族主義風(fēng)波。
奧巴馬被洗白,AI種族偏見惹爭議
近幾年,隨著研究的不斷突破,計(jì)算機(jī)視覺技術(shù)得到突飛猛進(jìn)的發(fā)展。
因此不僅在藝術(shù)生成領(lǐng)域,AI在更廣泛的圖像識別與合成方面均存在潛在的偏見風(fēng)險,尤其在涉及人臉圖像上。例如,今年上半年,杜克大學(xué)出品的一款PLUSE算法便被指責(zé)存在種族歧視,在社交平臺引起了軒然大波。
風(fēng)波的起因是,PULSE將前美國黑人總統(tǒng)巴拉克·奧巴馬(Barack Obama)的圖像變成了白人。
PULSE是一種新型超分辨率算法,其功能是將低分辨率的圖像轉(zhuǎn)化為高清圖像(生成逼真、且不存在的人),但在其輸出結(jié)果中產(chǎn)生了明顯的膚色偏好。
不僅僅是奧巴馬。在網(wǎng)友們的測試中,美國國會議員亞歷山大·奧卡西奧·科爾特斯(Lexandria-Ocasio Cortez)、女星劉玉玲(Lucy Liu)等人的膚色也被PULSE變成了白色。
由此不少網(wǎng)友認(rèn)為,AI存在根深蒂固的種族偏見。
當(dāng)時,PULSE的創(chuàng)建者也承認(rèn),該算法在按比例放大像素化圖像時更可能生成具有白種人特征的人臉。而且他說:“這種偏見很可能是StyleGAN從數(shù)據(jù)集中繼承的?!?/p>
其實(shí),這個問題在機(jī)器學(xué)習(xí)中極為普遍。其主要原因是用于訓(xùn)練AI的數(shù)據(jù)集通常是在人口統(tǒng)計(jì)學(xué)上占優(yōu)勢的白人。如果數(shù)據(jù)集中不出現(xiàn)或較少出現(xiàn)黑人,會影響AI模型的性能,導(dǎo)致輸出結(jié)果是白人的幾率更高。除此案例外,AI在面部識別算法中也多次引發(fā)種族爭議。
那么數(shù)據(jù)集存在偏差,必然會導(dǎo)致算法偏見,那么如何才能有效改善數(shù)據(jù)集呢?
如何避免數(shù)據(jù)集偏差?
作為AI研究的基礎(chǔ),如何修正和完整數(shù)據(jù)集一直是研究人員關(guān)注的重點(diǎn)。
其實(shí),除了頻發(fā)引發(fā)爭議的種族偏差、性別偏差外,數(shù)據(jù)集在研究過程中也存在測量偏差、排除偏差以及關(guān)聯(lián)偏差等一系列問題。不過,近幾年針對如何解決數(shù)據(jù)偏見問題,研究人員也開發(fā)出了很對應(yīng)對措施,例如通過少量數(shù)據(jù)標(biāo)注,提高模型泛化能力,減少人為標(biāo)注可能帶來的偏差等。
總體來說,防止數(shù)據(jù)偏差是一個持續(xù)的過程,有時很難知道數(shù)據(jù)或模型何時出現(xiàn)偏差,而且不同數(shù)據(jù)集也存在不同的標(biāo)準(zhǔn)。不過相關(guān)研究人員也總結(jié)了以下通用準(zhǔn)則,以幫助我們及早發(fā)現(xiàn)和減少偏差:
注意一般用例和潛在異常值,確保數(shù)據(jù)科學(xué)家和數(shù)據(jù)標(biāo)簽團(tuán)隊(duì)是多元化的。
為數(shù)據(jù)標(biāo)簽創(chuàng)建黃金標(biāo)準(zhǔn),確保測量團(tuán)隊(duì)注釋的準(zhǔn)確性和一致性。
對于可能出現(xiàn)數(shù)據(jù)偏差的項(xiàng)目,使用多次通過注釋。例如,情感分析,內(nèi)容審核和意圖識別。
通過收集更多與敏感群體相關(guān)的訓(xùn)練數(shù)據(jù)來解決不公平的問題。
Google,IBM和Microsoft等均發(fā)布了工具和指南,可用來分析不同數(shù)據(jù)類型的偏差。
https://venturebeat.com/2020/12/28/researchers-find-evidence-of-bias-in-art-generating-ai-systems/