在機(jī)器計算的過程中,人類僅被視為“輸入信號”,而不是會思考、能感受的存在。當(dāng)算法開始編寫算法,人類將被排斥在圈子之外,任由機(jī)器人為我們做決定。
在機(jī)器計算的過程中,人類僅被視為“輸入信號”,而不是會思考、能感受的存在。當(dāng)算法開始編寫算法,人類將被排斥在圈子之外,任由機(jī)器人為我們做決定。
算法在我們的生活中可謂無處不在,可以幫助我們完成各種任務(wù)。
石家莊網(wǎng)絡(luò)優(yōu)化言比如,它能根據(jù)你的心情為你挑選電影,推薦你可能感興趣的商品,能幫你打車,告訴你駕車線路,幫你在婚戀網(wǎng)站找到合適的交往對象,等等等等。它幾乎存在于任何我們可以想象的領(lǐng)域。
這些電腦代碼原本是為了生活便利而設(shè)計的。事實上,它們的確為我們的生活提供了不少便捷。因此,有一部分人認(rèn)為,算法為我們提供了很多積極的解決方案,應(yīng)該在社會中不斷擴(kuò)大它的運(yùn)用。
不過另一方面,算法有可能會使人類喪失頭腦的判斷能力,不斷地依賴軟件去代替頭腦思考。畢竟,既然有現(xiàn)成的軟件能替我們思考,我們何樂而不為呢?
美國皮尤研究中心與依隆大學(xué)互聯(lián)網(wǎng)創(chuàng)想中心共同發(fā)布了一篇關(guān)于算法的利弊影響的調(diào)查報告。該調(diào)查訪問了1300位技術(shù)專業(yè)人員、學(xué)者、商人、政府官員,詢問了他們對于算法可能帶來的影響有什么看法。當(dāng)問及算法對人類的決策技能將產(chǎn)生何種影響,不少業(yè)界人士表示出他們的擔(dān)憂。
算法的進(jìn)步使科技公司與政府部門得以收集、儲存、分類、分析大量數(shù)據(jù)。許多受訪專家表示,人類*初設(shè)計數(shù)據(jù)建模與分析,是為了提高做事效率與盈利能力,起初人們對它可能帶來的社會影響沒有過多考慮。受訪專家們認(rèn)為,在機(jī)器計算的過程中,人類將被視為“輸入信號”,而不是會思考、能感受、真實的、變化中的存在。隨著算法的不斷進(jìn)化,我們的社會將成為一個僅由邏輯推動的、有缺陷的社會。當(dāng)算法開始編寫算法,人類將被排斥在圈子之外,任由機(jī)器人做決定。
來看看部分受訪專家們是怎么說的。
克萊姆森大學(xué)人本計算中心的助理教授巴特·尼吉南伯格表示,算法使人們太易于跟從其建議,或者說,太難于超越其建議。
石家莊網(wǎng)絡(luò)建設(shè)消息算法將使自己逐漸演變成羅伯特·默頓所說的“自我應(yīng)驗預(yù)言”,把使用者變成僵尸,只知道消費(fèi)易于消費(fèi)的產(chǎn)品。
新美國基金會數(shù)字權(quán)利排名項目的負(fù)責(zé)人麗貝卡·麥克金農(nóng)認(rèn)為,算法使機(jī)器快速學(xué)習(xí),使它們變得越來越難懂,即使其創(chuàng)造者都難以理解它的邏輯,只能跟從其命令做決定,并產(chǎn)生一定的結(jié)果。電腦缺乏責(zé)任心,又具有不透明性,這是非常可怕的。然而另一方面,算法給人與信息的關(guān)系帶來了革命,它能救人性命,也能賦權(quán)于人。
卡內(nèi)基梅隆大學(xué)人機(jī)交互研究所的副教授洪宜安說,80年代業(yè)界有句話說,“若輸入垃圾數(shù)據(jù),則輸出亦為垃圾數(shù)據(jù)”,這句話在當(dāng)今仍然適用。石家莊網(wǎng)絡(luò)建設(shè)消息當(dāng)今數(shù)據(jù)的**數(shù)量、電腦速度,可能給我們對數(shù)據(jù)造成正確的假象。舉一個平凡的例子,有人嚴(yán)格按照GPS的指示駕車,結(jié)果卻開到河里去了。
未來主義者、咨詢師阿瑪麗·德·席爾瓦米切爾說,預(yù)測性建模會限制個人的自我表達(dá),從而限制創(chuàng)新與發(fā)展。這將使我們培養(yǎng)出“被寵壞的一代”。這些人當(dāng)中,只有頂層精英懂得創(chuàng)新,而社會大眾將失去復(fù)雜的決策技能。
美國未來研究所執(zhí)行總監(jiān)瑪麗娜·戈爾比斯表示,用想象代替打字,就能搜索到一組文章,一按鈕就能得到一篇圍繞某一話題的敘述性文章,這就相當(dāng)于我們每個人都有很多的科研助手以及其他助手。另外,算法還有一種潛質(zhì),即揭露雇傭、工作描述及其他文本信息中的偏見。
麻省理工學(xué)院計算機(jī)科學(xué)的教授大衛(wèi)·卡爾格認(rèn)為,算法公平、算法歧視的問題,是非常重值得重視的,現(xiàn)在我們已經(jīng)注意到這一問題。只要我們主觀上希望擁有不帶歧視的算法,我們就能夠設(shè)計出不帶歧視的算法。
《未來的人類而種族》一書的作者丹尼爾伯林特認(rèn)為,比起人類的咨詢?nèi)藛T、管理人員,算法更不容易受制于一些不可告人的企圖。因此,算法的輸出信號從社會、經(jīng)濟(jì)角度來說都是**的,容易達(dá)到我們對它的預(yù)期。相比之下,人類的建議與決定才是更可疑的。