人工智慧的黑暗面

類別: 新奇

人工智慧的黑暗面
credit:銳景創意

去年,一輛奇怪的自動駕駛汽車被投放到新澤西州蒙茅斯縣安靜的道路上。由晶片製造商Nvidia(英偉達)的研究人員開發的這輛實驗車看似與其他無人駕駛汽車並沒有什麼不同,但與Google,特斯拉或通用汽車公司所展示的車輛相比,它顯示了人工智慧能力的升級。這輛車並沒有遵循由工程師或程式設計師提供的指令。相反,它完全依賴於一套通過觀察人類來教導自己駕駛的演算法來完成學習。

讓一輛車如此行駛是一個令人印象深刻的壯舉,但這也有點令人不安,因為人類並不完全清楚汽車如何做出各項駕駛操作的決定。在機器學習的過程中,來自車輛感測器的資訊直接進入人造神經元的巨大網路,處理資料,然後傳遞操作方向盤,制動器和其他系統所需的命令給車輛。結果似乎與人類駕駛員的預期反應相匹配。但是,如果有一天它做了一些意想不到的事情——例如,撞倒一棵樹,或者停在綠燈前呢?根據現有的技術,可能很難找出原因。由於該系統非常複雜,即使是設計它的工程師也很難提取出單一車輛動作的原因。並且你不能向控制系統提問:目前,還沒有合適的方法可以設計一個總能解釋為什麼的人工智慧系統。

這輛車的神祕“思想”指出人工智慧一個迫在眉睫的問題。被稱為深度學習的底層AI技術,近年來已經被證明在解決問題上非常給力。它已被廣泛應用於字幕處理,語音識別和語言翻譯等任務。現在,人類寄希望於同樣的技術來診斷致命的疾病,做出價值百萬美元的交易決定,和其他無數的事情來改變整個行業。

但這不會發生,或者不應該發生。除非我們找到方法,使深入深度學習的技術更容易被創造者所理解,並對其使用者負責。否則,難以預測何時會發生故障,而且一旦發生,後果將無法避免,甚至不堪設想。 因此,Nvidia的自動駕駛汽車仍處於試驗階段。

人工智慧的黑暗面
credit: 煎蛋畫師seηz

數學模型已經被用來幫助決定誰被假釋,誰被批准貸款,以及誰被聘請工作。如果我們知曉這些數學模型,可能可以理解決策背後的原因。但是銀行,軍方,僱主等等正在將注意力轉向更復雜的機器學習方法,使自動化決策完全無法解釋。深入深度學習作為一種常見的機器學習方法,代表了一種從本質上不同的計算機程式。麻省理工學院教授塔米·賈科科拉(Tommi Jaakkola)說:“這是一個已經(和人類)息息相關的問題,未來關係將會更加密切。無論是投資決定,醫療決定還是軍事決定,人類都不希望只依靠黑箱演算法。”

能夠詢問人工智慧系統如何達成結論似乎應是一項基本的法律權利。從2018年夏天開始,歐盟可能要求公司能夠給使用者提供自動化系統決策背後的解釋。即使對於看似相對簡單的系統,例如使用深度學習來投放廣告或推薦歌曲的應用程式和網站,這或許也是不可能的。執行這些服務的計算機已經利用程式以我們無法理解的方式完成了這些。即使是構建這些應用程式的工程師也無法完全解釋程式的行為。

這引起了令人難以置信的問題。隨著技術的進步,我們可能很快會越過一個門檻——超過這個閾值,使用AI需要一次觀念的飛躍。誠然,我們人類也不能總是真正地解釋我們的思想過程,但是我們可以直觀地信任和衡量人們。對於與人類作出決定方式不同的機器人來說,這現實嗎?我們從未建造以造物者不明白的方式運作的機器,卻又如何與這些不可預知和難以置信的機器溝通交流?

為了探索這些形而上學的概念,我去了塔夫茨大學,與著名的研究意識和心靈的哲學家和認知科學家丹尼特(Daniel Dennett)會面。丹尼特最新的一本書《從細菌到巴赫,再反回來》(From Bacteria to Bach and Back),一本關於意識的百科全書式論文,表明智力發展的一個自然部分是發明能使其創造者無法解釋的系統。 “問題是,我們如何明智地創造出這樣一套系統?對於機器和我們自己,分別有什麼標準?”他在他那坐落於田園詩般的校園內,但是雜亂無章的辦公室裡告訴我。

他還有一個關於追求可解釋性的警告。 “我認為,如果我們要使用這些東西並依靠它們,那麼讓我們儘可能地掌控機器如何以及為什麼給我們答案。”他說。但由於可能沒有完美的答案,我們應該像對待人類彼此一樣謹慎的面對AI的決策——無論機器看起來有多聰明。他說:“如果機器不能比人類更好地解釋其行為背後的原因,那就不能予以信任。”

本文譯自MIT Tech Review,由譯者雁洲向北基於創作共用協議(BY-NC)釋出。

人工智慧的黑暗面原文請看這裡