導語:記得小時候看《不要和陌生人說話》,有一個情節是讓現場目擊者對犯罪分子進行指認,目擊者半天也沒有辨別出來,從而讓犯罪分子逍遙法外。如今,人工智能將能對這一現狀進行改變,通過對人的相貌、表情甚至眼神對犯罪分子進行辨認。但這一技術的同時也帶來很多質疑,主要是在準確性上,你怎麽看?
有個成語叫做“賊眉鼠目”,形容那些看起來就不像好人的麵相,這一論證在人工智能領域得到了驗證。
中國科學家做了一項研究,利用人工智能判斷人的長相與犯罪的聯係。通過采集18-55歲的中國公民的麵部特征,並對數據進行分析,人工智能得到了一組關於罪犯特征的結論:
那些嘴巴很小、嘴唇微微上翻、兩眼之間距離比較近的人,他們是罪犯的可能性要遠遠高於其他特征的人。
但是,這項技術得到了一些反對者的強烈抨擊與指責,因為他們認為,這項技術隻是一項最基礎的研究,而且這項研究是帶有偏見色彩的,如果把這項技術應用到現實世界中,來進行罪犯的認證的話將是一件十分荒謬的事情,因為這項技術非常有可能錯誤的識別罪犯,讓好人蒙冤,讓真正的罪犯逍遙法外。
俗話說:“人不可貌相,海水不可鬥量”,僅僅憑借一個人的長相,就給他扣上罪犯或者騙子的帽子,未免太荒謬了,但是目前的一項人工智能技術卻正在做這件荒謬的事情。
該論文已發布到國外網站,文章的主要內容就是調查能否基於最新的人工智能技術,通過對於人類麵的部特征進行識別、分析,來判斷一個人到底是不是罪犯。
雖然研究還處在實驗室階段並沒有得到廣泛的應用,但是,不管結果怎樣,這對於那些具有小小的嘴巴、微微上翻的嘴唇和比較靠近的眼睛這些麵部特征的人來說,都不是一個好消息,因為一旦一個人具備了這樣的麵部特征,以後就很有可能被人認為是罪犯或者騙子。
上海交通大學的研究人員吳小林和張希對這項人工智能技術進行了廣泛深入的研究和討論。他們將自己的研究成果發表在《arXiv》上,但是他們的這篇研究論文還沒有被正式審批或者正式發表,隻是在網上可以找到資源,屬於優先發表的文章。
吳小林和張希根據他們前期的研究指出,判斷一個人是不是罪犯主要可以根據三個基本的麵部特征來進行判斷。
這三個特征包括:嘴唇的彎曲程度;兩隻眼睛之間距離的大小;鼻尖和嘴角之間角度的大小(可以認為是嘴巴的大小)。
與此同時,根據計算機複雜的計算可以得出結論:那些具有嘴巴比較小,眼間距比較小,嘴唇微微向上彎曲的麵部特征的人,更有可能是一個罪犯或者騙子。
研究人員還在文章中寫到:“不像人類的檢察官或者法官,人工智能計算機的視覺算法或者分類的標準往往不具備任何主觀的因素,一切評判的依據都是根據所收集到的數據,因為計算機在做出判斷時,不會擁有主觀的情緒,也不會根據自己過去的經曆甚至是種族、宗教、政治、觀念、性別、年齡等等的不同產生任何偏見,更加不會因為自己晚上睡眠不好或者用餐不快而產生的負麵情緒影響自己的判斷。所以,相對於人類的檢察官或者法官而言,人工智能計算機更具有客觀性和可靠性。”
這項研究采集了1856個年齡在18-55歲之間的中國公民的照片,並且對這些所采集的公民照片刻意的進行了選擇來保持樣本的可靠性,因為這1856個被采集的中國公民中擁有了不同的種族、不同的性別、不同的年齡甚至是不同的麵部表情,這樣就可以增加樣本的可靠性。
在這被采集的1856個中國公民中,有730個是罪犯,當然,為了確保數據的準確性,這730個罪犯不包括犯罪嫌疑人,隻包括那些已經被確定為罪犯的公民。
這些被采集的中國公民的照片全部被輸入到計算機中進行統計,計算機通過4種算法分別對這些照片裏的公民麵的部特征進行準確的分析,根據分析得到的結果來推斷出罪犯的共同麵部特征。
研究者們還在文章中寫到:“盡管在這項科研課題設立之初就充滿了曆史的爭議性,但是,計算機的4種算法都運行的非常良好,並且為推斷罪犯提供了非常有效的證據。”
研究人員表示:“盡管目前,我們已經得到了非常有效的證據來對罪犯進行推斷,例如較小的嘴巴,微微向上彎曲的嘴唇,較近的眼間距等等,但是,並不是所有的人都相信和支持這項研究,事實上,大多數的人都對我們的研究都持懷疑和強烈反對的態度。”
一位網友表示:“這項技術的公布令我感到非常的震驚,這項研究的結果是駭人聽聞的,我覺得,這些研究是非常不科學的,這應該成為科學界的一個反例,大學教授們應該在課堂上積極的告誡學生不要這樣做。”
還有一些用戶表示:“這樣的將研究是不具備科學依據的,因為,罪犯輕微的微笑,就會對照片上嘴巴的大小,嘴唇的形狀產生影響,而這些影響,很有可能是罪犯在拍攝照片的時候,攝影師的拍攝角度或性慣性的要求所產生的,而那些所謂的罪犯共性的麵部特征很有可能是因為同一警察部門,采用同一攝影師或者采集的照片來自同一組拍攝所造成的,並不具有非常好的相關性。所以,研究結果自然不具備科學依據和可靠性。”
現在,針對這項人工智能技術存在的最大的擔憂就是,計算機很有可能在現實世界的法庭上,根據自身的所謂的“證據”指證一個無辜的人成為罪犯。這些人工智能技術很有可能做出一些錯誤的判斷,因為它很有可能指認一個沒有犯罪的人成為罪犯,同時,也很有可能指認一個罪犯無罪,從而被釋放。
這已經不是人工智能技術第一次被公眾大肆批評和指責的案例了。
在今年的九月份一項叫做Beauty.AI的選美大賽上,人工智能計算機對來自全世界年齡在18-69歲的自拍照片進行了收集,並對這些照片進行了評判。當結果公布時,似乎出現了一些意外,因為機器人根本“不喜歡”皮膚黑的人,所以,所有黑皮膚的照片都被篩掉,機器人對於黑皮膚的人存在著一些偏見,而引起了社會的廣泛不滿。
盡管大多數的參賽者都是白皮膚的人,但是,大部分的印度和非洲的黑皮膚的人,他們也都提交了照片,而這些照片全部被篩掉了。可能因為大多數參賽者都是白人的原因,所以人工智能算法也就默認了白皮膚的人比較好看,才導致了黑人照片被篩掉的情況。
Beauty.AI選美大賽的首席科學官Alex Zhavoronkov說:“如果在你采集的數據庫中,沒有足夠多的不同膚色的數據,那麽人工智能計算機機器人就會產生有偏見的結果。”
所以,如果想要利用一個算法對一組數據進行識別時,如果某種類型的數據不夠多,就有可能會產生一個有偏見的結果。










