|
為什么說人工智能將是人類災(zāi)難?
3 V5 z$ o9 `9 L3 D8 e+ z* R$ E" t3 }9 _; S, b* Q' A# ?, W4 H. ^
2017-01-08 10:06:12欄目:默認(rèn)欄目 1664 2 24
) W. V4 s/ w5 ~' {伴隨著阿爾法狗徹底完虐人類頂尖圍棋手,關(guān)于人工智能的討論再入高潮。對于此次人工智能潮流,根據(jù)有些網(wǎng)站的調(diào)查,多數(shù)人是持歡迎的態(tài)度。對此,本人認(rèn)為,應(yīng)該對人工智能保持高度的警惕,弄不好,這就是開啟了潘多拉魔盒,將導(dǎo)致人類的最終毀滅。
* }% L3 Y% K- k: o8 J' G7 F1 R3 }
, }, [! X8 h' g4 [著名的英國劍橋大學(xué)物理學(xué)家霍金說:“我認(rèn)為,對于一個生物大腦和和一臺計算機所能取得成就來說,其間不存在深刻的差別。所以從理論上來說,計算機可以效仿人類的智能,并超過人類的智能?!?font class="jammer">' d" v: k4 }4 D, ]. I
: s$ ], U+ g5 \
霍金認(rèn)為,人工智能的發(fā)展可能幫助人類消除疾病,消除貧困,阻止氣候變化,但是也可能產(chǎn)生人們不愿意看到的種種后果,包括產(chǎn)生自主武器,造成經(jīng)濟災(zāi)難,以及發(fā)展出同人類發(fā)生沖突時擁有自己意愿的機器。強大人工智能的崛起可能是人類遇到的最好的事情,也可能是最壞的事情,“未來智能中心”的一個簡單的使命就是弄清楚人工智能未來是不是會毀滅人類。+ [2 T& Y& |4 _9 S& O
9 c' ^1 T. Q3 Q( u+ x0 x9 V9 Y霍金教授的看法應(yīng)該被高度重視,因為目前已經(jīng)有人在研究“生物電腦”,盡管他們只是因為生物可降解的屬性,但是:“人工智能+智能生物自我繁殖”,難道不正是霍金教授所說的“一個生物大腦和和一臺計算機所能取得成就來說,其間不存在深刻的差別”?何況有人已經(jīng)開始打破生物大腦和計算機的區(qū)別!% V# Y* c$ j" V
7 U* [4 B7 D. @' d3 ~+ n5 R' v
; Y; f0 {2 R8 T; [& R# c T/ v; A首先,智能上的優(yōu)越是人類成為地球主宰的唯一終極依靠。人類的體能不如狗熊、犀牛、大象,速度不如獵豹或鹿馬狼,嗅覺不如狗,聽覺不如蝙蝠……唯一超越地球上這些動物的,就是智力,也正因為智力的優(yōu)勢,人類做了地球的主人。按照這一被人類自己已經(jīng)證明了的“智力決定論”,當(dāng)然誰的智力最優(yōu)秀,或說誰智力能超過人類,誰就是地球的主人。9 m; G& }. Z; ?$ o% _' w6 }
. o1 C8 i; t$ K9 R: T! a3 P
其次,機器的智力在圍棋上超過人類,無論怎樣評估其嚴(yán)重性都不過分。本人作為業(yè)余圍棋愛好者,多年之前就和圍棋軟件下過棋,那時如果我完全按照圍棋里的“定式”下,是比不過軟件的,因為軟件永遠(yuǎn)沒有記憶錯誤。但是當(dāng)我脫離“定式”,哪怕下了一著人人皆知的百分之百的“臭招”,圍棋軟件立即就找不著北了,于是軟件肯定就開始亂下了,自己就能贏了軟件。但是現(xiàn)在,這阿爾法狗已經(jīng)戰(zhàn)勝了幾乎全部人類現(xiàn)有高手,肯定是已經(jīng)克服了一招一式必須暴力計算的弱點!我深知,圍棋的特點就是在所謂“大局觀”上的虛擬性、籠統(tǒng)性、概括性,也就是不精確性,這正是需要精確計算的機器最不足的地方,但是今天,被阿爾法狗的設(shè)計者用策略網(wǎng)絡(luò)和機器自動更新策略(即機器自我學(xué)習(xí)功能)解決了,這和當(dāng)年的深藍(lán)用暴力計算戰(zhàn)勝國際象棋世界冠軍是完全不可同日而語的!換句話說,就是機器可以自己學(xué)習(xí)了!這不就是每一代人從小到大干的主要事情嗎?況且機器如果掌握了學(xué)習(xí)能力,肯定可以比人類干得好!因為機器是沒有遺忘的!它學(xué)習(xí)過的東西都是過目不忘!
7 K# k6 @6 S6 K2 o f0 i M5 `, p' L" `% N/ R K
智力是學(xué)習(xí)的結(jié)果,機器學(xué)會了學(xué)習(xí),其智力的突飛猛進就可以期待了。有了無與倫比的學(xué)習(xí)能力、無與倫比的記憶能力、無與倫比的計算能力,加上無與倫比的不知疲倦的體力,機器將超過人類還是什么不可想象的事嗎?; v3 Z+ `# Y5 G( q- g0 ?' i# \. y! V, G
4 C/ d( @: z% N8 ?9 E' Z; `: K! b最后結(jié)論自然就出來了——
( p1 n8 G: t' Q1 o! q2 |) A1 v& [: h9 `0 ?
地球上的既定法則是智力決定控制權(quán),智力決定地球歸誰控制,機器的智力如果超過人類,那地球最終自然要歸屬于機器!而一旦放任機器智能的自由發(fā)展,由于機器相對于人類的上述優(yōu)勢(學(xué)習(xí)、記憶、計算、體力等),人類只能甘拜下風(fēng)!再說,一個各項能力遠(yuǎn)超人類的“機器學(xué)霸”,還不具有人類的情感(主要指人類中高尚的部分情感)——主要是沒有憐憫之心,智能機器能做出什么來?(又有人會說可以給機器加上“高尚情感”!問題在于,你可以去加“高尚情感”,一定專門有人要加“無惡不作”!這樣,邪惡機器其實無窮無盡的!那時的恐怖襲擊完全由機器人就可以完成!而且會比人類中的恐怖份子更殘忍?。?br />
) h, L" t$ U3 [. v$ {6 m0 Q3 U* L, T" Z9 R5 i
這還不是非常可怕的前景嗎?美國科幻電影里表現(xiàn)過很多次的機器與人類的戰(zhàn)爭已經(jīng)近在咫尺!那些美國科幻電影簡直就是提前模擬的人機戰(zhàn)爭的預(yù)演教育片!
% Z, b1 i i& m% h9 n- Q! y
* p( \7 L7 B9 ?. u) u+ \5 }早晚有一天,人類必須坐到一起,鄭重討論是否該賦予機器(本人所說的機器即人工智能,即智能機器)選舉權(quán)的問題!但機器的數(shù)量卻是幾乎可以無限生產(chǎn)的!這樣一來,人類連數(shù)量上都輸?shù)袅?,?quán)利還能不拱手讓出嗎?那樣,人類只能作為機器的奴隸了。
2 B: M) t* g4 y1 d- C2 u% k/ X: I0 O* H0 [
有人說人類可以提前對人工智能做一些限制,可以簽一些全球性的協(xié)議。那我們看看原子彈技術(shù)的擴散歷程吧!至今,聯(lián)合國多次制裁協(xié)議都不能阻止狂熱的朝鮮追求核武器的努力!何況主要個人技術(shù)為主的人工智能的擴散呢?地球上永遠(yuǎn)有一些狂人是不受正常人控制的,這就象精神病人,至今人類都不能控制精神病人的發(fā)病、不能根治此病,更別提個別狂人對人工智能的追求!這些在美國的科幻電影中也早就警告過了!何況,很可能與大家的愿望相反,人工智能極可能被有些國家首先用于戰(zhàn)爭!以筆者有限的戰(zhàn)爭知識,排雷機器人的智能化就將遠(yuǎn)遠(yuǎn)超過人類,試想,一個配合X光透視的機器人排雷;是人類可比的嗎?比人類中的恐怖份子更殘忍的機器人恐怖襲擊加上超越的智力,是人類阻止的了的嗎?這些,難道不應(yīng)該提前預(yù)防嗎?( n. U' O; O# Q6 |" Z0 d0 A
9 e% `3 l* Q$ h7 r0 l# S總之,我們知道人工智能的全面普及已經(jīng)不可避免,很可能在幾十年內(nèi)實現(xiàn)。但是對人工智能的危害很多人還沒有足夠的警惕,他們并不知道人類正在玩兒火。就象霍金所說的:“強大人工智能的崛起可能是人類遇到的最好的事情,也可能是最壞的事情”。如果多數(shù)人對此沒有足夠的警惕,人類的毀滅就等不到太陽熄火的那一天了! o h+ s* a0 D
' q: U. R3 L1 g' R w$ O* T
|
|