人類的臉部藏著什么秘密?AI只想盯著你的臉看
這些與生俱來的品質(zhì)有助于我們判斷、理解他人,以及傳達自己的情感。但這也可能會讓我們誤入歧途。“文獻表明,我們傾向于高估自身的面部識別能力?!? 達特茅斯教授Brad Duchaine說?!袄纾藗儗φl看起來值得信賴以及誰不值得做出一致的判斷,但這些判斷似乎并沒有有效地預(yù)測實際情況下的可信度。”
本文引用地址:http://m.butianyuan.cn/article/201901/397079.htm而試圖從人們的臉上收集個人健康狀況同樣復(fù)雜。
Ian Stephen是澳大利亞悉尼麥考瑞大學(xué)的講師,他使用一種主要的進化范式來研究生理學(xué)如何在我們的臉上得到反映。他發(fā)現(xiàn),臉型可以預(yù)測BMI和血壓等因素。其最有趣的發(fā)現(xiàn)不僅僅是面容,而是著色:研究參與者認為白人皮膚色素沉著更黃、更健康。Stephen認為這與角蛋白(我們從大量水果和蔬菜中獲得的橙色色素)和含氧血液(由心血管問題消耗的溫暖色調(diào))相對應(yīng)——這是兩種非常真實的健康標志。
大多數(shù)這些決定都是在潛意識里做出的。在《 傲慢與偏見》中,達西先生與伊麗莎白貝徒步三英里后面色黯淡。但達西沒有把其吸引力與氧氣血或生殖健康聯(lián)系起來,他只是回應(yīng)他所看到的。雖然這看起來很膚淺,但簡·奧斯汀的浪漫小說揭示了一個更深層次的真理:“被認為具有吸引力的面孔也被認為是健康的?!盨tephen說。
許多進化生物學(xué)家認為偶爾將身體健康和感知到的美混合在一起是有利的。它至少在理論上幫助動物挑選配偶并繁衍后代。但這并不是萬無一失的:在很多方面,美是多種多樣的,此外,關(guān)鍵的是,美受到文化因素的影響。例如,美國人重視瘦身并詆毀肥胖,但瘦弱的人可能是不健康的,肥胖的人則可能非常健康。這些因素已經(jīng)產(chǎn)生了真正的影響:僅僅因為外表,肥胖者、婦女和有色人種,從工作場所到急診室都受到歧視。
在許多人眼中,美麗可以阻擋一切。2017年的一項《自然》研究顯示,“男性感知的健康狀況是通過平均性、對稱性和皮膚黃度來預(yù)測的?!迸c此同時,女性的健康狀況則“通過女性氣質(zhì)預(yù)測”。
一本19世紀關(guān)于面容的書描述了兩種視覺情感。左:完全絕望。 右:憤怒與恐懼混合。
有些人認為借助機器進行面部識別有可能幫助人類擺脫愚昧。其他人則擔心這會把誤解放大到無法控制的程度。在最近發(fā)表在《自然》雜志上的一項研究中,與FDNA有關(guān)的研究人員使用人工智能來識別兒童臉部照片中的遺傳性疾病。該項目名為DeepGestalt,在17000張圖像的數(shù)據(jù)集上進行訓(xùn)練,以識別200多種綜合癥。
根據(jù)人們對技術(shù)的定位,DeepGestalt可能會激發(fā)一種消沉的希望,或者是一種恐懼。Stephen表示,雖然仍然需要醫(yī)生來解釋結(jié)果,但這種機器可以提供一種“更安全、更方便”的方法來診斷許多疾病。但是,它的使用伴隨著嚴重的道德問題。Stephen說:“曾經(jīng)私有化的信息,可能更容易被識別。公司是否會開始從你的Facebook個人資料中提取你的照片,并對他們之前無法預(yù)知的風險進行分析并否認你的保險或進行額外收費?”
類似的面部識別算法引發(fā)了他們自己的隱私問題。2017年,Glaad和人權(quán)倡導(dǎo)團體等組織譴責了創(chuàng)建“AI gaydar”的努力。一位評論家稱其為“算法相當于一名13歲的恃強凌弱者。”
對能夠讀取我們思想和感情的人或機器的恐懼,甚至是那些我們希望隱藏的東西,都是技術(shù)焦慮的基礎(chǔ)部分,載于喬治·奧威爾的小說《1984》中。但在這個領(lǐng)域,想象力仍遠遠超過我們的技術(shù)。
Feldman Barrett認為高技能的情感閱讀機器人是可以實現(xiàn)的, 但目前在這個市場上運營的公司似乎并不具備制造它們的能力?!坝嬎銠C在視覺領(lǐng)域(檢測行為)發(fā)展地越來越好,不幸的是,(程序員)認為檢測行為意味著檢測一種情緒?!彼f,“要想取得真正的突破,在某些方面需要改變的不是技術(shù),而是心態(tài)、預(yù)設(shè)?!?/p>
評論