2017年9月29日 星期五

❤內參-科技-人工智能:我們更應該擔心什麼

出處:人工智能:我們更應該擔心什麼


如今,每個行業多少都會涉及到人工智能,彷彿人工智能處在一個大爆發的階段。
但是人工智能專家、加州大學伯克利分校教授邁克爾·喬丹表示,
人工智能目前還處於非常初級的階段。
很多事情我們還不了解,現狀並不是一個“人工智能的神奇大爆炸時代”。
喬丹教授在人工智能領域非常有名氣,他也是前百度首席科學家吳恩達的導師。
 9月9日,喬丹教授在混沌大學的的課堂上,
分析了人工智能的現狀,以及幾個值得擔心的問題。


首先,喬丹教授說,想要準確地理解人工智能,
就要了解一下人工智能目前有哪些可能性,以及哪些技術還不太可能實現。
比如人臉識別技術,
計算機能做到在可視場景中標記對象,但沒辦法做到對視覺場景的常識理解。
就拿開會來說,在一個會議室裡面放上聯網的攝像頭,
計算機能區分出來哪些是人臉,但卻不能理解開會這個場景。
再比如,機器只能做到死記硬背,卻沒有辦法真正地回答問題。
當你和電腦交流的時候,
可以回答你“中國最大的城市是哪一個”,
那是它通過“中國”“城市”“最大”三個關鍵詞,搜索出來的答案。
但如果你問“中國不在河邊的第二大城市是哪一個”,電腦就不一定能答上來。
因為之前可能沒有人做過這個問題的相關數據
所以就沒有這個問題答案的數據列表。

喬丹教授說,未來十年,以上這些沒辦法實現的部分
或許能做到基本的實現,而且會做得越來越好。
但他還是堅持認為,我們不太可能看到和人有同等智力的人工智能系統。
因為人類在講話的時候,是可以不斷講新內容、新理念的。
同時人類還擅長進行新的抽象推理。
這些人工智能系統就做不到,它需要反复、重複用海量的數據才能得出一個答案。
人工智能系統可以知道世界所有的城市、餐廳、電影院,然而它也只知道這些事實而已。
人工智能很難有靈活性和創造性。


不過,喬丹教授說,雖然我們不用擔心出現超級人工智能的出現,
但是反過來說,目前看似智能,實則不夠智能的這些系統,卻是值得我們警惕的。
尤其是在未來,涉及到城市規劃、推薦系統、醫學診斷等領域,
都不再是傳統單一機器人的問題。
如果用過去傳統算法去應用到這些領域,就會出現很多問題。


接著,喬丹教授從五個方面,分析了我們需要擔心的問題。
第一,大規模多重相關決策的錯誤控制。
喬丹教授說,搜索引擎給了你一個錯誤的建議,不會給你添多大的麻煩,
你最多會覺得這個搜索引擎不好用,再換一個就完了。
但假設這個推薦是醫療診斷意見,錯了是有可能出人命的。
而且,現在已經發生過這樣的事情了。
類似的錯誤放在金融領域,可能會引發市場的動盪,
放在交通領域,可能會讓整個城市的交通都癱瘓。
所以,一旦擴大到這些領域,
我們就不能用傳統應用到單一機器人的方法來做,而是要有新算法。
但目前來說,我們採用的思路都是比較傳統或者通用的,
還沒意識到在這個層級上還要做很多事情。

第二,如何在競爭環境中共享數據。
喬丹教授說,很多掌握數據的公司都不願意和別人分享。
他認為,數據分享的好處是,我們可以從整個行業的角度速考慮問題。
比如一個黑客攻擊了一家公司,這家公司就會從這次攻擊中學到新東西。
但因為當初只有這家公司受到了攻擊,其他公司並不知道。
如果這家公司把這個數據分享給所有人,整個行業就可以一起改善這個算法。
現在大家都不願分享,一方面是技術原因,一方面也有法律的原因。


第三,大規模的雲端互動。
人們都在說云計算,所有的東西都在雲上,
但其實這些智能設備都是所謂的端設備,它們沒有時間把數據上傳到雲中。
如果你和人工智能的每一次對話都要傳到雲上,就會導致速度跟不上。
比如,在汽車智能這個領域,像“我在這裡到底要不要轉彎”這樣的問題,
是不可能每一次都實時和雲進行交互的。
因此,要把端設備和雲連接起來,還要實時交互,
是有極大挑戰的,我們現在也不知道該怎麼做。


第四,公平和多元化的問題。
喬丹教授認為,蒐集大量數據沒問題,但這些數據是可能產生偏差的。
比如,如果數據人員因為不喜歡某類人而不把這類人納入樣本,
用這樣的樣本做預測,本身就是有偏差和偏見的。


第五,穩健性和安全性問題。
比如,無人駕駛技術怎麼能確保在所有氣候條件下,
在所有的路況上面,每一台車都能安全駕駛?這其實就是一個極大的挑戰。
此外,還有失業浪潮。
喬丹教授說:“每一次工業革命,都有很多人會因此失去工作。
但值得注意的是,過去的失業浪潮是花費三五十年完成的。
但接下來,很多工作可能在5-10年內就會被完全取代,這是一個新的趨勢,
貧富差距也會隨之進一步拉大。”
還有就是人工智能被濫用的問題,人工智能本身沒有邪惡和正義,主要還是看它被誰利用。

以上就是喬丹教授對人工智能現狀的分析,以及幾個值得擔憂的問題,希望對你有啟發。

本期文章參考內容來源:《Michael I. Jordan:我們並非處於人工智能的大爆炸時代》,
見於微信公眾號“混沌大學”。



---------------------------------
摘要:
加州大學伯克利分校教授邁克爾·喬丹表示,人工智能目前還處於非常初級的階段
很多事情我們還不了解,現狀並不是一個“人工智能的神奇大爆炸時代”。
想要準確地理解人工智能,
就要了解一下人工智能目前有哪些可能性,以及哪些技術還不太可能實現
就拿開會來說,在一個會議室裡面放上聯網的攝像頭,
計算機能區分出來哪些是人臉,但卻不能理解開會這個場景。
又例如人工智慧可以回答你“中國最大的城市是哪一個”,
那是它通過“中國”“城市”“最大”三個關鍵詞,搜索出來的答案。
但如果你問“中國不在河邊的第二大城市是哪一個”,人工智慧就不一定能答上來。
因為之前可能沒有人做過這個問題的相關數據,
未來十年,以上這些沒辦法實現的部分
我們不太可能看到和人有同等智力的人工智能系統。
因為人類在講話的時候,是可以不斷講新內容、新理念的。
同時人類還擅長進行新的抽象推理。這些人工智能系統就做不到。

喬丹教授從五個方面,分析了我們需要擔心的問題
1. 大規模多重相關決策的錯誤控制
 搜索引擎給了你一個錯誤的建議,不會給你添多大的麻煩,
 你最多會覺得這個搜索引擎不好用,再換一個就完了。
 但假設這個推薦是醫療診斷意見,錯了是有可能出人命的。
 而且,現在已經發生過這樣的事情了。
 類似的錯誤放在金融領域,可能會引發市場的動盪,
 放在交通領域,可能會讓整個城市的交通都癱瘓。
2. 如何在競爭環境中共享數據
 比如一個黑客攻擊了一家公司,這家公司就會從這次攻擊中學到新東西。
 但因為當初只有這家公司受到了攻擊,其他公司並不知道。
 如果這家公司把這個數據分享給所有人,整個行業就可以一起改善這個算法。
 現在大家都不願分享,一方面是技術原因,一方面也有法律的原因。
3. 大規模的雲端互動
 人們都在說云計算,所有的東西都在雲上,
 但其實這些智能設備都是所謂的端設備,它們沒有時間把數據上傳到雲中。
 如果你和人工智能的每一次對話都要傳到雲上,就會導致速度跟不上。
4. 公平和多元化的問題
 蒐集大量數據沒問題,但這些數據是可能產生偏差的。
 比如,如果數據人員因為不喜歡某類人而不把這類人納入樣本,
 用這樣的樣本做預測,本身就是有偏差和偏見的。
5. 穩健性和安全性問題
 比如,無人駕駛技術怎麼能確保在所有氣候條件下,
 在所有的路況上面,每一台車都能安全駕駛?這其實就是一個極大的挑戰。
 此外,還有失業浪潮。每一次工業革命,都有很多人會因此失去工作。
 但值得注意的是,過去的失業浪潮是花費三五十年完成的。
 但接下來,很多工作可能在5-10年內就會被完全取代,
 這是一個新的趨勢,貧富差距也會隨之進一步拉大。

沒有留言:

張貼留言