人臉識別越來越常見,今年春運已經能刷臉進站,iPhone的相冊就能用人臉分類照片,社交網站上能根據人臉標記照片。然而如同央視315提醒的那樣,這項技術距離無懈可擊還有一段距離。 比如說,一副成本1塊錢的眼鏡,就能騙過人臉識別的AI。
一個能夠愚弄人臉識別AI的眼鏡 來自卡內基梅隆大學(CMU)的研究人員表示,佩戴專門設計過的眼鏡架,可以愚弄最先進的面部識別軟件。一副眼鏡,不單可以讓佩戴者消失在人工智能識別系統之中,而且還能讓AI把佩戴者誤以為是別人。 一副眼鏡能有如此奇效,正是利用了機器理解人臉的漏洞。面部識別軟件通常基于深度學習系統,通過大量的數據訓練來尋找模式。 與人類對人臉的理解相比,機器對人臉的識別發生在抽象層面。電腦不是用人類的方式認臉,只是在像素中尋找模式。如果你知道這些機器在尋找哪種模式,就能輕易的愚弄這些人工智能系統,這正是CMU研究員們所做的事情。 首先,他們找到了與特定面孔相關的圖案,然后把這些圖案打印到一副寬邊眼鏡上。然后在測試中,機器對戴上眼鏡的研究人員“視若無睹“。不僅如此,眼鏡還能用來冒充別人。 一位41歲的白人男性研究員,僅憑一副眼鏡,就能冒充女演員““準確率87.87%。 當然這個研究也有明顯的局限。比如不同的距離、不同的照明條件下,效果會有差異。最重要的是,實驗室的測試并不代表在現實中總是可行。 不過無論如何,如果你想保護隱私,戴這種眼鏡,總比畫上一個CVDazzle妝要省事兒。什么是CVDazzle?貼幾張圖給大家看看““ 機器會認錯的,不只是人臉 顯然,在認人這件事上,有很多種方法可以騙過機器。那么,機器在識別其他物體的時候,還會被騙嗎? 也會。比如說: 這是什么? 作為人類,我們只看到不同顏色相間的波紋。 但是來自Google、Facebook、Mobileye的圖片軟件們不約而同地說:這是海星啊! “這種感覺就像各家神經網絡坐在一起吐槽:長得多標準的一個海星啊,這些愚蠢的人類怎么就看不出來呢?“論文《DeepNeuralNetworksareEasilyFooled》的作者之一、懷俄明大學的助理教授JeffClune說。 這篇論文發表在2015年的計算機視覺頂級學術會議CVPR上,還獲得了CommunityTopPaper獎。 Clune在論文中提到,很多在人類看來毫無意義的圖片,輸入到神經網絡中,會被分類為某種物體。 比如說,上圖左側的8張圖片,在人類看來都是電視機雪花屏的圖案,但是在神經網絡看來,這里面包含了燕雀、犰狳、小熊貓、獵豹甚至菠蘿蜜““
你說是熊貓?機器說是長臂猿 人類看起來毫無異樣的圖片,到了機器那里也可能會被錯認。 比如說在人類眼中,上圖左右兩邊都是熊貓;但計算機就會認為,左邊的(可能)是熊貓,而右邊的是長臂猿。 這張圖片,來自IanGoodfellow發表在ICLR2015的論文ExplainingandHarnessingAdversarialExamples。 其實早在2013年和2014年,科研人員們就在討論這類問題。Goodfellow在2014年曾經發表了一篇關于反例攻擊(AdversarialExamples)的論文。去年10月一篇題為《UniversalAdversarialPerturbations》則提出了一種通用的“擾動“方式,可以導致各種神經網絡將圖片誤分類。 Goodfellow在OpenAI工作期間,還發文介紹在反例攻擊和防御策略,量子位曾經進行了編譯。
AI的判定邊界 現在,人類的科學家還沒有完全搞清楚,這些騙過機器的方式為什么會有效,在什么情況下會失敗。 一種常見的解釋是,它們利用了AI系統中的“判定邊界“。 所謂“判定邊界“,是指機器區分兩類物體所用的一組隱形的規則。比如說我們設計了一個非常簡單的分類器,用來區分獅子和獵豹,經過一段時間的訓練之后,機器會創造出一個X-Y平面,右上方是獵豹、左下方是獅子,而獅子和獵豹之間的分界線,就是“判定邊界“。 Clune認為,會出現上面這些“騙過圖像識別系統“的方法,是因為判定邊界過于武斷。“你對神經網絡所做的,就是訓練他們在數據的集群之間劃定界限,而不是對什么是獵豹、什么是獅子進行深入的建模。“Clune說,他認為解決這個問題,需要讓圖像分類器能夠得出“我不知道這張圖片是什么“的結果,而不是強行將它歸為某一類。
«
高通反訴蘋果:當創新屈從于高利潤會怎樣?
|
華爾街愛用加密軟件聊業內八卦 公司政府都很頭疼
»