出處:如何拆穿數據時代的胡扯
信息科學家傑文·韋斯特(Jevin West)和生物學家卡爾·伯格斯特龍(Carl Bergstrom)
在華盛頓大學開設了一門新課,課程的名字叫做
“在大數據時代拆穿胡扯”( Calling bullshit in the age of big data)。
韋斯特和伯格斯特龍認為,人們很容易就能識別出口頭上的胡扯,
畢竟我們已經使用語言數千年了,但數據和圖表是19世紀80年代才流行起來的。
由於數據呈現出的複雜性和準確性,很容易高效地偽裝成胡扯的信息,讓人上當受騙。
伯格斯特龍說,想要拆穿數據的胡扯也很簡單,不需要你獲得統計學學位,
需要的是一些常識和思維習慣。兩位教授提供了一些建議:
首先,看到一則信息時,你可以問自己三個問題:
誰告訴我的?他是怎麼知道的?他想向我兜售什麼?
其次,如果一個數據看起來特別好,好的都不那麼真實,那很可能就不是真的。
尤其是那些和你的個人觀點或者經歷十分一致的結論,特別值得懷疑。
第三,警惕不公正的比較。
比如,有人告訴你,觀看特朗普就職典禮直播的人數要比看奧巴馬就職直播的人數多,
那是因為2017年看直播比奧巴馬就職那年容易多了。
第四,要知道機器也可能有偏見。
比如,用來預測個人犯罪行為的計算機模型對少數族裔表現出了偏見,
很有可能是因為用來“訓練”算法的數據反映了現有的文化偏見。
機器和給他們編程的人一樣容易犯錯,而且不會因為感到內疚而糾正自己的行為。
----------------
摘要:
1. 看到一則信息時,你可以問自己三個問題:
誰告訴我的?他是怎麼知道的?他想向我兜售什麼?
2. 如果一個數據看起來特別好,好的都不那麼真實,那很可能就不是真的。
尤其是那些和你的個人觀點或者經歷十分一致的結論,特別值得懷疑。
3. 警惕不公正的比較。
比如,有人告訴你,觀看特朗普就職典禮直播的人數要比看奧巴馬就職直播的人數多,
那是因為2017年看直播比奧巴馬就職那年容易多了。
4. 要知道機器也可能有偏見。
比如,用來預測個人犯罪行為的計算機模型對少數族裔表現出了偏見,
很有可能是因為用來“訓練”算法的數據反映了現有的文化偏見。
機器和給他們編程的人一樣容易犯錯,而且不會因為感到內疚而糾正自己的行為。
信息科學家傑文·韋斯特(Jevin West)和生物學家卡爾·伯格斯特龍(Carl Bergstrom)
在華盛頓大學開設了一門新課,課程的名字叫做
“在大數據時代拆穿胡扯”( Calling bullshit in the age of big data)。
韋斯特和伯格斯特龍認為,人們很容易就能識別出口頭上的胡扯,
畢竟我們已經使用語言數千年了,但數據和圖表是19世紀80年代才流行起來的。
由於數據呈現出的複雜性和準確性,很容易高效地偽裝成胡扯的信息,讓人上當受騙。
伯格斯特龍說,想要拆穿數據的胡扯也很簡單,不需要你獲得統計學學位,
需要的是一些常識和思維習慣。兩位教授提供了一些建議:
首先,看到一則信息時,你可以問自己三個問題:
誰告訴我的?他是怎麼知道的?他想向我兜售什麼?
其次,如果一個數據看起來特別好,好的都不那麼真實,那很可能就不是真的。
尤其是那些和你的個人觀點或者經歷十分一致的結論,特別值得懷疑。
第三,警惕不公正的比較。
比如,有人告訴你,觀看特朗普就職典禮直播的人數要比看奧巴馬就職直播的人數多,
那是因為2017年看直播比奧巴馬就職那年容易多了。
第四,要知道機器也可能有偏見。
比如,用來預測個人犯罪行為的計算機模型對少數族裔表現出了偏見,
很有可能是因為用來“訓練”算法的數據反映了現有的文化偏見。
機器和給他們編程的人一樣容易犯錯,而且不會因為感到內疚而糾正自己的行為。
----------------
摘要:
1. 看到一則信息時,你可以問自己三個問題:
誰告訴我的?他是怎麼知道的?他想向我兜售什麼?
2. 如果一個數據看起來特別好,好的都不那麼真實,那很可能就不是真的。
尤其是那些和你的個人觀點或者經歷十分一致的結論,特別值得懷疑。
3. 警惕不公正的比較。
比如,有人告訴你,觀看特朗普就職典禮直播的人數要比看奧巴馬就職直播的人數多,
那是因為2017年看直播比奧巴馬就職那年容易多了。
4. 要知道機器也可能有偏見。
比如,用來預測個人犯罪行為的計算機模型對少數族裔表現出了偏見,
很有可能是因為用來“訓練”算法的數據反映了現有的文化偏見。
機器和給他們編程的人一樣容易犯錯,而且不會因為感到內疚而糾正自己的行為。
沒有留言:
張貼留言