今年,人工智能項目 AlphGo 和 Libratus 分別在圍棋和德州撲克兩個(gè)領(lǐng)域戰勝了世界上較好的人類(lèi)選手。雖然這些里程碑事件顯示了近些年人工智能的發(fā)展程度,許多人仍然對新興技術(shù)整體的成熟程度抱有懷疑——尤其是考慮到過(guò)去 12 個(gè)月中出現的一些人工智能的失誤案例。

機器之能是機器智能的鐵桿粉絲,這從我們的名字中就可見(jiàn)一斑。但是同樣,我們十分清楚地認識到,一些新技術(shù)并不能有效地執行自己本來(lái)的任務(wù),時(shí)常會(huì )犯一些人類(lèi)從不會(huì )犯的錯誤。以下是我們挑選出來(lái)的 2017 年人工智能失誤事件 Top 10。

面具解鎖 Face ID

2017年,人工智能摔過(guò)的那些跟頭

Face ID,一種用來(lái)解鎖較新款 iPhone 的面部識別技術(shù),一度被稱(chēng)為迄今為止最安全的人工智能激活方法。蘋(píng)果公司曾夸口稱(chēng) Face ID 的解鎖失誤率僅為百萬(wàn)分之一。但是隨后越南公司 BKAV 使用了由 3D 打印的塑料、硅膠、化妝品和一些剪紙制成的面具就成功破解了 Face ID,而面具的造價(jià)只有 150 美元。BKAV 只是掃描了測試對象的臉部,使用 3D 打印機生成了一個(gè)臉部模型,貼上了一些剪紙眼睛、嘴巴和硅膠做的鼻子。Face ID 的破解給整個(gè)行業(yè)帶來(lái)了沖擊,加劇了對消費者設備隱私的風(fēng)險以及更普遍的人工智能技術(shù)安全性的考量。

Amazon Echo 故障引發(fā)鄰居報警

最近大受歡迎的 Amazon Echo 被認為是更加強大的智能揚聲器之一。但是沒(méi)有東西是完美的。一名德國男子的 Echo 在其外出期間被意外喚醒,并在半夜開(kāi)始大聲地播放音樂(lè ),吵醒了鄰居。鄰居報了警,警察不得不打破前門(mén)才把 Echo 關(guān)閉。事后警察更換了門(mén)鎖,房子的主人回家時(shí)發(fā)現自己的鑰匙已經(jīng)打不開(kāi)自己的房門(mén)了。

Facebook 關(guān)閉聊天機器人

2017年,人工智能摔過(guò)的那些跟頭

今年 7 月,媒體鋪天蓋地地報道,兩個(gè) Facebook 的聊天機器人以人類(lèi)無(wú)法識別的語(yǔ)音相互溝通,發(fā)現后被關(guān)停。關(guān)于新的秘密超級智能語(yǔ)言的謠言淹沒(méi)了各大網(wǎng)站,直到 Facebook 出來(lái)解釋?zhuān)@種神秘的交流只是語(yǔ)法編譯不力造成的結果,這場(chǎng)風(fēng)波才漸漸平息。

拉斯維加斯的自動(dòng)駕駛巴士上路先進(jìn)天就發(fā)生事故

今年 11 月,一輛自動(dòng)駕駛巴士在拉斯維加斯華麗亮相,包括常駐拉斯維加斯的魔術(shù)明星 Penn & Teller 在內的眾多名人爭相排隊試乘。然后,僅僅在兩個(gè)小時(shí)后,這輛公交車(chē)就和一輛貨車(chē)相撞。盡管從技術(shù)角度來(lái)看,公交車(chē)無(wú)須為此次事件負責——據警方所說(shuō),貨車(chē)司機才應該為此次事件負責——但是這輛智能巴士上的乘客還是抱怨說(shuō),公車(chē)還是不夠智能,卡車(chē)慢慢靠近的時(shí)候,它無(wú)法擺脫危險。

Google Allo 用頭巾表情回應槍支表情

2017年,人工智能摔過(guò)的那些跟頭

美國有線(xiàn)電視新聞網(wǎng)的員工使用 Google Allo 時(shí)收到了一個(gè)帶有頭巾的人的表情建議。而這個(gè)表情是因為一個(gè)手槍表情觸發(fā)的回復建議。谷歌尷尬地向公眾保證,問(wèn)題已經(jīng)得到解決,并向公眾道歉。

雙胞胎騙過(guò)了匯豐銀行的聲紋識別 ID

匯豐銀行的聲紋識別 ID 是一個(gè)以人工智能為核心的安全系統,允許用戶(hù)通過(guò)語(yǔ)音命令訪(fǎng)問(wèn)自己的賬戶(hù)。盡管匯豐銀行聲稱(chēng)這套系統和指紋 ID 一樣安全,但是 BBC 的一名記者的雙胞胎兄弟卻能通過(guò)模仿聲音訪(fǎng)問(wèn)他的賬戶(hù)。實(shí)驗嘗試了 7 次才成功。匯豐立即給出了解決方案,登錄失敗三次后即鎖定賬戶(hù)。

Google 人工智能把步槍錯認為直升機

2017年,人工智能摔過(guò)的那些跟頭通過(guò)略微調整步槍的照片,麻省理工學(xué)院的研究小組成功欺騙了 Google Cloud Vision API,讓它將步槍照片錯認為直升機。這個(gè)技巧,也叫對抗樣本,是計算機通過(guò)進(jìn)行人眼無(wú)法察覺(jué)的修改從而使圖像分類(lèi)出現錯誤。此前,如果黑客知道目標計算系統的基本機制,這種對抗樣本才會(huì )起效。麻省理工學(xué)院的團隊通過(guò)觸發(fā)錯誤分類(lèi)無(wú)須獲得系統信息,改進(jìn)了對抗樣本。

路牌黑客愚弄了自動(dòng)駕駛汽車(chē)

研究人員發(fā)現,用油漆和膠帶對停止標志作出不起眼的修改,他們就可以使自動(dòng)駕駛汽車(chē)對這些標志錯誤分類(lèi)。用「love」和「hate」這樣的單詞修改停止標志,就欺騙了一輛自動(dòng)駕駛汽車(chē)的學(xué)習系統。測試集中,自動(dòng)駕駛汽車(chē)的學(xué)習系統 100% 將這些停車(chē)標志辨認為「限速 45」。

AI 想象了一片「銀行臀部」顏色的夕陽(yáng)

2017年,人工智能摔過(guò)的那些跟頭

機器學(xué)習研究人員 Janelle Shan 訓練了一個(gè)神經(jīng)網(wǎng)絡(luò ),用來(lái)生成新的油漆顏色以及給每種顏色起一個(gè)匹配的名字。這些顏色可能看起來(lái)非常舒服,可這些名字卻令人捧腹。使用顏色名稱(chēng)數據進(jìn)行少量訓練之后,這個(gè)模型仍然會(huì )將「天藍色」標記為「Gray Pubic」,把深綠色標記為「Stoomy Brown」。