2017年8月9日 星期三

❤內參-科技-哲學家眼中的人工智能未來

出處:哲學家眼中的人工智能未來


哲學家趙汀陽在他的新書《四種分叉》中,
討論了超級人工智能和人類未來的問題,非常宏大,但會給人啟發。
在接受《澎湃新聞》採訪時,趙汀陽說,
計算機思維是人的思維的一部分,是由人的思維派生出來的一種特殊算法系統。
 “計算機思維在本質上就是人的邏輯和數學思維,
不過,目前的一些新進展似乎試圖讓計算機具備人的其它思維能力,
比如自由聯想、感知、學習甚至想像力之類,如果成功的話,那就越來越像人了。
二者根本的差異在於,目前的計算機思維不可能對自身系統的整體性進行反思。
反思自身系統是人的最高級能力。”


趙汀陽對人工智能的發展持有一種相對不樂觀的態度。
在《四種分叉》中,趙汀陽推導出超級人工智能徹底無視人類的價值體系,
從而敵對人類的黯淡未來。趙汀陽說,
如果人類能夠形成集體理性,阻止人工智能研究上的越界冒險,人類就能阻止這種未來。
關鍵的界限是兩個:
第一,“人工智能的發展應該限於特殊的或專業的人工智能,
不能發展具有全面綜合能力的人工智能”,也就是人工智能專家所說的通用人工智能;
第二,“不應該發展具有等價於人類反思能力的人工智能,
即不能把人工智能設計成為能夠對自身系統整體進行反思的全權自主智能。”
趙汀陽說:“只要缺乏對自身系統整體的反思能力,
人工智能就不會把自身升級為人類無法控制的超級智能存在。”


只要人工智能沒有發展成超級智能存在,那麼人工智能就只是人類使用的工具。
但是,如果仍然是一小部分人掌握著人工智能的利器,
以目前的人性水平,結局仍然不會樂觀。
它可能帶來三種結果:
第一種是《未來簡史》作者尤瓦爾·赫拉利討論過的,
手握人工智能的人類演變成“神人”,而其他人變成無用之人,是“專制的最後勝利”;
第二種是控制人工智能的強者們互相爭霸,
人類像曾面對核戰爭威脅那樣面對人工智能戰爭威脅,這是“帝國主義邏輯的可能結局”;
第三種是最理想的狀況,人工智能為所有人服務,而不是只為部分人。

特斯拉CEO埃隆·馬斯克是人工智能威脅的主要提倡者之一。
他的理由也是兩個:第一是擔心反對人類的超級人工智能出現;
第二是擔心人工智能技術會被類似於谷歌和Facebook這樣的大公司壟斷,
所以他主張人工智能技術應該是開源的。
雖然一個是科技企業家,一個是哲學家,但馬斯克和趙汀陽的擔心有類似之處。


---------------------
摘要:
阻止人工智能研究上的越界冒險,關鍵有二:
1. “人工智能的發展應該限於特殊的或專業的人工智能,
 不能發展具有全面綜合能力的人工智能”,也就是人工智能專家所說的通用人工智能;
2. “不應該發展具有等價於人類反思能力的人工智能,
 即不能把人工智能設計成為能夠對自身系統整體進行反思的全權自主智能。”
 “只要缺乏對自身系統整體的反思能力,
 人工智能就不會把自身升級為人類無法控制的超級智能存在。”

只要人工智能沒有發展成超級智能存在,那麼人工智能就只是人類使用的工具。
但是,如果仍然是一小部分人掌握著人工智能的利器,
以目前的人性水平,結局仍然不會樂觀。它可能帶來三種結果:
1. 《未來簡史》作者尤瓦爾·赫拉利討論過的,
 手握人工智能的人類演變成“神人”,而其他人變成無用之人,是“專制的最後勝利”
2. 控制人工智能的強者們互相爭霸,
 人類像曾面對核戰爭威脅那樣面對人工智能戰爭威脅,這是“帝國主義邏輯的可能結局”
3. 最理想的狀況,人工智能為所有人服務,而不是只為部分人。

沒有留言:

張貼留言