久久国产精品久久久久久,国产精品自在自线,日韩在线一区二区三区,91欧美秘密入口

社科網(wǎng)首頁(yè)|客戶(hù)端|官方微博|報刊投稿|郵箱 中國社會(huì )科學(xué)網(wǎng)
中國社會(huì )科學(xué)院工業(yè)經(jīng)濟研究所

人工智能的“三宗罪”

2019年03月25日來(lái)源:產(chǎn)經(jīng)快評    作者:goblue

近幾年,人工智能成為最火爆的風(fēng)口。世界各國不約而同出臺人工智能戰略,地方政府大力招商引資,熱錢(qián)競相涌入,創(chuàng )業(yè)企業(yè)層出不窮。毫無(wú)疑問(wèn),人工智能是科技的發(fā)展方向,也正在深刻地改變著(zhù)社會(huì )、經(jīng)濟、生活的方方面面,我們已經(jīng)生活在一個(gè)人工智能廣泛存在的世界。在人工智能獲得應用的領(lǐng)域,其性能遠勝過(guò)人類(lèi):下棋比你強,查資料比你快,看臉比你準……但真實(shí)的人工智能也并不像看起來(lái)那么美。投資機構、人工智能企業(yè)從自身的利益出發(fā),往往報喜不報憂(yōu),它們一方面宣傳、渲染、夸大人工智能的作用,另一方面卻對人工智能的風(fēng)險、危害避而不談。接連兩起波音737-max8墜機的初步調查結果顯示,不是機械故障或駕駛員的誤操作,人工智能系統的不當設計更可能是事故的原因。這提醒我們,在享受AI帶來(lái)的各種好處的同時(shí),還要警惕AI的可能風(fēng)險。事實(shí)上,人工智能作為一種人類(lèi)研究開(kāi)發(fā)出來(lái)的技術(shù),本身就帶著(zhù)它的“原罪”。

一宗罪:AI并非無(wú)所不能

2016年,Google旗下DeepMindAlphaGo打敗世界圍棋冠軍李世石引爆人工智能的熱潮。AlphaGo借助于深度學(xué)習機制,由人工智能系統在海量數據上進(jìn)行學(xué)習自主學(xué)習,實(shí)現棋力在短時(shí)間的突飛猛進(jìn)。再之前IBM深藍超級計算機在國際象棋比賽中打敗世界冠軍卡斯帕羅夫則是借助于專(zhuān)家優(yōu)化過(guò)的開(kāi)局走法和暴力窮舉(插一句題外話(huà),卡斯帕羅夫被AI打敗后轉而開(kāi)始了對AI的研究,他的著(zhù)作《深度思考:人工智能的終點(diǎn)與人類(lèi)創(chuàng )造力的起點(diǎn)》已出版中文版)。當前的人工智能有兩大局限。第一,人工智能基本都是專(zhuān)用智能而非通用人工智能,經(jīng)過(guò)“訓練”的人工智能系統只擅長(cháng)某一方面的工作,在其他領(lǐng)域則無(wú)所作為。AlphaGo在圍棋領(lǐng)域戰無(wú)不勝,但讓它參加在線(xiàn)游戲比賽必須重新設計代碼和訓練。第二,人類(lèi)的思維特征是“小數據、大任務(wù)”,善于舉一反三,基于以往的知識和經(jīng)驗,對未知的事件做出判斷。相比之下,無(wú)論是專(zhuān)家系統還是深度學(xué)習,是建立在對有限經(jīng)驗的總結或基于有限數據訓練的基礎之上,是“大數據、小任務(wù)”。而現實(shí)世界中存在著(zhù)許多偶然事件,由于人工智能系統沒(méi)有“見(jiàn)過(guò)”這些偶然事件,所以當“偶然”變成現實(shí)時(shí),就很難做出合理的應對。著(zhù)名的“黑天鵝”故事也能夠說(shuō)明人工智能的這一弊端——通過(guò)輸入大量的白天鵝圖片,人工智能系統經(jīng)過(guò)訓練獲得識別白天鵝的能力,而且準確率很高,但是當它遇到黑天鵝時(shí)就會(huì )做出錯誤的判斷。

人工智能的這一天生缺陷并非只停留在理論上,現實(shí)中已經(jīng)有這樣的實(shí)際案例發(fā)生。在李世石vs AlphaGo 1:4唯一獲勝的一局中,當李世石走出白78挖的妙手后,AlphaGo認為自己有70%左右的勝率,但直到它下出第87手后才發(fā)現了自己的誤算,結果之后連出昏招而落敗。20165月發(fā)生的世界第一起自動(dòng)駕駛汽車(chē)致人死亡車(chē)禍中,特斯拉Model S的駕駛員和自動(dòng)駕駛系統在強烈的日光下都沒(méi)有注意到拖掛車(chē)的白色車(chē)身,未及時(shí)啟動(dòng)剎車(chē),從而與一輛垂直方向行駛證在左轉的拖掛車(chē)相撞。MD安德森癌癥中心在20166月與IBM簽約將沃森用于癌癥治療,但由于未達到IBM所宣傳的效果,MD安德森癌癥中心在投入6200萬(wàn)美元后,2017221日終止與沃森的合作項目。在這次埃航737 MAX8空難中,波音公司為了解決737 Max發(fā)動(dòng)機前移造成的飛機出現大迎角失速的情況,利用機動(dòng)特性增強系統(MCAS)自動(dòng)調節飛機姿態(tài),使機頭在仰角過(guò)大時(shí)適當向下以避免出現大迎角失速。但是由于飛行員不熟悉MCAS機制,MCAS會(huì )錯誤的把飛行員的糾錯操作誤以為失速而做出強制性的調整。

二宗罪:是代碼就有bug

當前主流的人工智能系統是以海量的數據和深度學(xué)習算法為基礎的,需要人工設計深度神經(jīng)網(wǎng)絡(luò )模型,需要為它設定應用長(cháng)青、提供標注好的訓練數據,其本質(zhì)上是一系列代碼的集合,可以看作一種軟件。只要是人開(kāi)發(fā)的軟件就會(huì )存在漏洞(bug)。這些漏洞輕則會(huì )造成資料的泄露,重則會(huì )造成經(jīng)濟損失甚至發(fā)生人員傷亡的重大事故。為了避免漏洞產(chǎn)生的不良后果,各種軟件、APP都會(huì )經(jīng)常性的發(fā)布漏洞補丁,或直接發(fā)布新的修正漏洞后的軟件版本。軟件漏洞的發(fā)現既有軟件開(kāi)發(fā)公司自己的檢查,也有專(zhuān)業(yè)的軟件和網(wǎng)絡(luò )安全公司測試、監測,更重要的是由大量用戶(hù)在使用過(guò)程中發(fā)現的,用戶(hù)人數越多、使用的場(chǎng)景越多,越容易發(fā)現軟件的漏洞。所謂“只要眼睛多,bug容易捉”。隨著(zhù)互聯(lián)網(wǎng)從辦公、個(gè)人生活等消費互聯(lián)網(wǎng)、商業(yè)互聯(lián)網(wǎng)領(lǐng)域進(jìn)入產(chǎn)業(yè)特別是制造業(yè)、金融業(yè)、國防等領(lǐng)域的應用,人工智能系統的使用越來(lái)越內部化,不但使用的用戶(hù)數量指數化減少,而且也缺少外部專(zhuān)業(yè)安全防護公司的監測,僅靠用戶(hù)自己使用過(guò)程中發(fā)現漏洞的概率就小得多。同時(shí)在工廠(chǎng)、金融、國防等領(lǐng)域,一旦漏洞被供給造成的損失卻大得多。如果完全把決策權交給人工智能或在生產(chǎn)一線(xiàn)缺少人類(lèi)的參與,對利用漏洞進(jìn)行的攻擊可能更加難以防范和處理。

三宗罪:AI會(huì )被惡意使用

工具本身無(wú)所謂善惡,但是卻可能被壞人用于作惡。核聚變既可用于發(fā)電,也可用于戰爭。同樣,代碼、軟件、人工智能既可以用于造福人類(lèi),也可以為謀取個(gè)人或小團體的利益而用于損害社會(huì )福利。在商業(yè)層面,企業(yè)可以編寫(xiě)向自身利益傾斜而損害用戶(hù)利益的代碼,比如所謂對老顧客定高價(jià)的“大數據”殺熟(“大數據殺熟”更多的是一個(gè)道德問(wèn)題而不是法律問(wèn)題);平臺企業(yè)將流量向自營(yíng)業(yè)務(wù)導流而不是與第三方用戶(hù)平等對待。人工智能基于用戶(hù)習慣的推薦能夠給用戶(hù)帶來(lái)方便,但同樣能夠被用于誘導用戶(hù),有目的地改變用戶(hù)的習慣和傾向。我們以為自己是互聯(lián)網(wǎng)的主宰,但實(shí)際上是由算法決定我們吃什么、買(mǎi)什么、看什么、聽(tīng)什么。人工智能系統可以在用戶(hù)不知情的情況下,上傳用戶(hù)的隱私數據并用于其他未經(jīng)用戶(hù)未允許的商業(yè)用途。網(wǎng)絡(luò )數據分析公司“劍橋分析”就被曝光利用Facebook上的5000萬(wàn)用戶(hù)數據,幫助特朗普團隊精準定位美國選民的喜好并隨后投放廣告,影響他們的政治立場(chǎng)和投票傾向。英國第四頻道評論道:“全世界的選舉不再是在家門(mén)口和演講臺上的爭奪,而更多的是大屏幕和社交媒體上的爭斗。這是一場(chǎng)看不見(jiàn)的信息戰,一只看不見(jiàn)的手搜集了你的個(gè)人信息,挖掘出你的希望和恐懼,以此謀取最大的政治利益。”比爾·蓋茨、霍金、埃隆·馬斯克等人對人工智能無(wú)節制發(fā)展和濫用的后果表現出憂(yōu)慮,他們擔心人工智能會(huì )被用于軍事用途,認為這可能是比原子彈還可怕的武器;還有人擔憂(yōu)人類(lèi)最終會(huì )被機器人(人工智能)所控制和奴役。

盡管科幻作家早在1940年就提出保護人類(lèi)的“機器人三原則”——“機器人不得傷害人類(lèi),或看到人類(lèi)受到傷害而袖手旁觀(guān);機器人必須服從人類(lèi)的命令,除非這條命令與第一條相矛盾;機器人必須保護自己,除非這種保護與以上兩條相矛盾”,但在現實(shí)中,機器人如何判別人類(lèi)就是一個(gè)難題,而且即使保護人類(lèi)不受人工智能傷害的規范獲得社會(huì )認可,成為人工智能行業(yè)的基本道德準則,但規矩從來(lái)不是約束壞人的,沒(méi)有底線(xiàn)的個(gè)人或犯罪組織、恐怖組織依然可以將人工智能用于對人類(lèi)的傷害。

如何對待人工智能?

也許人工智能像許多科技一樣,同時(shí)擁有天使與魔鬼兩張面孔,因此對于人工智能,既不能放任也不能放棄。第一,對人工智能的弊端給予高度的重視,并在法律法規、行業(yè)規范、技術(shù)流程等方面加以監測和規范,盡可能降低人工智能的惡意使用的可能。第二,人工智能在某些細分領(lǐng)域的能力超過(guò)人類(lèi),特別是在已知的重復性工作中具有優(yōu)勢,但這并不意味著(zhù)人工智能替代人類(lèi)做出判斷。事實(shí)上,人類(lèi)數萬(wàn)年進(jìn)化形成的憑借經(jīng)驗甚至直覺(jué)做出判斷的能力在復雜環(huán)境或面對未知事件時(shí)相對人工智能仍具有優(yōu)勢,此時(shí)的最終決策權應該掌握在人類(lèi)手中。例如,飛機的人工智能操作系統不應該強行改變飛行員的指令。第三,人工智能不能完全替代人類(lèi),二者應當是發(fā)揮各自?xún)?yōu)勢的協(xié)作關(guān)系,人工智能應該是人類(lèi)智力的延伸,輔助人類(lèi)更高效率地做出決策。

分享到: