博客專欄

EEPW首頁(yè) > 博客 > 普林斯頓大學(xué)開(kāi)發(fā)“AI顏狗”,第一眼看到照片,就能預(yù)測(cè)人們對(duì)你的第一印象

普林斯頓大學(xué)開(kāi)發(fā)“AI顏狗”,第一眼看到照片,就能預(yù)測(cè)人們對(duì)你的第一印象

發(fā)布人:數(shù)據(jù)派THU 時(shí)間:2022-05-15 來(lái)源:工程師 發(fā)布文章

來(lái)源:大數(shù)據(jù)文摘

圖片


世人皆是顏狗。
心理學(xué)家弗雷特說(shuō),以貌取人是人類的一種本能,這有可能是長(zhǎng)期自然進(jìn)化選擇的結(jié)果。
因?yàn)槿说拇竽X總是會(huì)選擇對(duì)自己來(lái)說(shuō),是最不需要?jiǎng)幽X思考的思維方式。
所以,人們就更傾向于通過(guò)外貌來(lái)判斷一個(gè)人(能力、學(xué)識(shí)、身份、地位、個(gè)性特征)。而從遺傳學(xué)和進(jìn)化心理學(xué)角度來(lái)看,“以貌取人”很可能是人的一種進(jìn)化缺陷。
這種缺陷表明,“顏值即正義”真的是有原因的。
這些第一印象,盡管常常不準(zhǔn)確,卻可能非常強(qiáng)大,塑造我們的關(guān)系,我們生活的方法面面,從找工作面試到法庭審判。
不過(guò),這種通過(guò)顏值判斷一個(gè)人的受歡迎程度的能力,AI也學(xué)會(huì)了。
史蒂文斯理工學(xué)院的研究人員,與普林斯頓大學(xué)和芝加哥大學(xué)合作,現(xiàn)在已經(jīng)教會(huì)了一個(gè)人工智能算法來(lái)模擬人們的第一印象,并準(zhǔn)確地預(yù)測(cè)人們將如何看待別人的臉部照片。這項(xiàng)研究成果發(fā)表在4月21日出版的《美國(guó)國(guó)家科學(xué)院院刊》上。      圖片       

論文鏈接:https://www.pnas.org/doi/full/10.1073/pnas.2115228119
AI模型反映人類刻板印象:戴眼鏡的更聰明
史蒂文斯商學(xué)院(School of Business at Stevens)的認(rèn)知科學(xué)家和人工智能專家Jordan w. Suchow說(shuō),“目前有大量研究集中在模擬人臉的物理外觀上?!?/span>
“我們將人類的判斷和機(jī)器學(xué)習(xí)結(jié)合起來(lái),研究人們之間那種充滿偏見(jiàn)的第一印象?!?/span>
Suchow和他的團(tuán)隊(duì),包括普林斯頓大學(xué)的Joshua Peterson和Thomas Griffiths,以及芝加哥大學(xué)布斯商學(xué)院的Stefan Uddenberg和Alex Todorov。
他們收集了數(shù)千人給出的他們對(duì)1000多張電腦生成的人臉照片的第一印象,并根據(jù)照片主體的智商、選舉能力、宗教信仰、是否值得信賴或外向程度等標(biāo)準(zhǔn)進(jìn)行排名。
圖片

然后,這些反應(yīng)被用來(lái)訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò),讓它僅僅根據(jù)人們的面部照片就對(duì)人們做出類似的快速判斷。
通過(guò)這個(gè)AI模型,就可以做到,“給你一張臉的照片,我們可以利用這個(gè)算法來(lái)預(yù)測(cè)人們對(duì)你的第一印象,以及當(dāng)他們看到你的臉時(shí),他們會(huì)把哪些刻板印象投射到你身上,”Suchow解釋說(shuō)。
該算法的許多發(fā)現(xiàn)都與常見(jiàn)的直覺(jué)或文化假設(shè)相一致:例如,微笑的人往往被認(rèn)為更值得信賴,而戴眼鏡的人往往被認(rèn)為更聰明。
有些特征是難以理解的
微笑的人更值得信賴,戴眼鏡的更聰明,這種判斷是很容易理解的,不過(guò),在其他情況下,要準(zhǔn)確理解算法為什么將某種特征賦予某個(gè)人就有點(diǎn)困難了,也就是說(shuō),盡管是根據(jù)人類的判斷訓(xùn)練出來(lái)的模型,但是其中的機(jī)制大部分還是“黑箱”。
“這個(gè)算法并沒(méi)有提供有針對(duì)性的反饋,也沒(méi)有解釋為什么給出的圖片會(huì)引發(fā)特定的判斷,”Suchow說(shuō)?!暗幢闳绱耍材軒椭覀兝斫鈩e人如何看待我們——我們可以根據(jù)哪張照片讓你看起來(lái)最值得信任來(lái)對(duì)一系列照片進(jìn)行排名,例如,讓你選擇如何展現(xiàn)自己?!?/span>
雖然最初開(kāi)發(fā)這個(gè)算法是為了幫助心理學(xué)研究人員生成用于感知和社會(huì)認(rèn)知實(shí)驗(yàn)的人臉圖像,但是這個(gè)新算法可以在現(xiàn)實(shí)世界中得到應(yīng)用。
現(xiàn)代人都在小心翼翼地策劃他們的公眾形象,例如,只分享他們認(rèn)為讓他們看起來(lái)最聰明、最自信或最有吸引力的照片,很容易看出如何使用算法來(lái)支持這個(gè)過(guò)程,Suchow說(shuō)。
因?yàn)橐呀?jīng)有一種社會(huì)規(guī)范圍繞著以積極的方式展現(xiàn)你自己,這回避了圍繞著這項(xiàng)技術(shù)的一些道德問(wèn)題,他補(bǔ)充說(shuō)。
更讓人苦惱的是,這個(gè)算法還可以用來(lái)處理照片,讓拍攝對(duì)象以一種特殊的方式出現(xiàn)——也許讓政治候選人看起來(lái)更值得信任,或者讓他們的對(duì)手看起來(lái)不聰明或多疑。
雖然人工智能工具已經(jīng)被用于制作“Deepfake”視頻,展示從未發(fā)生過(guò)的事件,但新算法可以巧妙地改變真實(shí)的圖像,以便操縱觀眾對(duì)其中人物的看法。
“有了這項(xiàng)技術(shù),我們可以拍一張照片,然后創(chuàng)建一個(gè)修改版本,以便給人留下某種印象,”Suchow說(shuō)?!俺鲇陲@而易見(jiàn)的原因,我們需要對(duì)這項(xiàng)技術(shù)的使用方式保持謹(jǐn)慎。”
為了保護(hù)他們的技術(shù),研究團(tuán)隊(duì)獲得了一項(xiàng)專利,現(xiàn)在正在創(chuàng)建一個(gè)初創(chuàng)公司,為預(yù)先批準(zhǔn)的道德目的授權(quán)該算法?!拔覀冋诓扇∫磺锌赡艿拇胧?,以確保這不會(huì)被用來(lái)造成傷害,”Suchow說(shuō)。
雖然目前的算法只關(guān)注一大群觀眾對(duì)一張給定面孔的平均反應(yīng),但Suchow接下來(lái)希望開(kāi)發(fā)出一種算法,能夠預(yù)測(cè)一個(gè)人對(duì)另一個(gè)人的面孔的反應(yīng)。這可以讓我們更深入地了解快速判斷是如何影響我們的社會(huì)互動(dòng)的,并可能幫助人們?cè)谧龀鲋匾獩Q定時(shí)認(rèn)識(shí)到并超越他們的第一印象。
“重要的是要記住,我們正在模仿的判斷并不能揭示一個(gè)人的真實(shí)個(gè)性或能力,”Suchow 解釋說(shuō)?!拔覀?cè)谶@里所做的是研究人們的刻板印象,這是我們都應(yīng)該努力去更好地理解的東西。”
相關(guān)報(bào)道:https://www.pnas.org/doi/full/10.1073/pnas.2115228119https://www.sciencedaily.com/releases/2022/04/220421181212.htm


*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉