人妻暴雨中被强制侵犯在线,亚洲国产欧美日韩精品一区二区三区,四虎影免看黄,国产无人区二卡三卡四卡不见星空

 找回密碼
 注冊(cè)會(huì)員

QQ登錄

只需一步,快速開始

搜索
樓主: 老鷹

機(jī)器學(xué)習(xí)有多厲害,工程師這飯碗能保多久

[復(fù)制鏈接]
11#
發(fā)表于 2018-7-31 10:43:16 | 只看該作者
機(jī)器人永遠(yuǎn)都是機(jī)器,物質(zhì)決定意識(shí),意識(shí)是生命體對(duì)客觀世界能動(dòng)的反應(yīng),機(jī)器人的反映能力取決于設(shè)計(jì)者的思維能力,而機(jī)器人自己的行為判斷能力都在一定的程序下進(jìn)行,是一種運(yùn)算模式,人類的大腦開發(fā)量連十分之一都不到,在這種背景下機(jī)器人的智慧可能會(huì)比一般人的高,但是能人背后有能人,這就是人定勝天的本錢。
12#
發(fā)表于 2018-7-31 11:48:59 | 只看該作者
為什么說人工智能將是人類災(zāi)難?7 C+ e7 x  w# [! q
5 C( K' ?' o% ]0 u% F8 F' q$ g
2017-01-08 10:06:12欄目:默認(rèn)欄目 1664 2 24
& M% S- p6 }" B' S( ]" i伴隨著阿爾法狗徹底完虐人類頂尖圍棋手,關(guān)于人工智能的討論再入高潮。對(duì)于此次人工智能潮流,根據(jù)有些網(wǎng)站的調(diào)查,多數(shù)人是持歡迎的態(tài)度。對(duì)此,本人認(rèn)為,應(yīng)該對(duì)人工智能保持高度的警惕,弄不好,這就是開啟了潘多拉魔盒,將導(dǎo)致人類的最終毀滅。0 Z4 q0 L- y1 a$ V4 `7 N; m

' N  z7 }5 ?$ s著名的英國劍橋大學(xué)物理學(xué)家霍金說:“我認(rèn)為,對(duì)于一個(gè)生物大腦和和一臺(tái)計(jì)算機(jī)所能取得成就來說,其間不存在深刻的差別。所以從理論上來說,計(jì)算機(jī)可以效仿人類的智能,并超過人類的智能?!?br /> 7 j8 k1 y4 Z* L( y4 C# o  s5 _/ t% n3 t+ |
霍金認(rèn)為,人工智能的發(fā)展可能幫助人類消除疾病,消除貧困,阻止氣候變化,但是也可能產(chǎn)生人們不愿意看到的種種后果,包括產(chǎn)生自主武器,造成經(jīng)濟(jì)災(zāi)難,以及發(fā)展出同人類發(fā)生沖突時(shí)擁有自己意愿的機(jī)器。強(qiáng)大人工智能的崛起可能是人類遇到的最好的事情,也可能是最壞的事情,“未來智能中心”的一個(gè)簡(jiǎn)單的使命就是弄清楚人工智能未來是不是會(huì)毀滅人類。6 h- k! z) q5 G5 H- m- R
  G* j( N9 V& f2 h! r7 b) g7 g
霍金教授的看法應(yīng)該被高度重視,因?yàn)槟壳耙呀?jīng)有人在研究“生物電腦”,盡管他們只是因?yàn)樯锟山到獾膶傩?,但是:“人工智?智能生物自我繁殖”,難道不正是霍金教授所說的“一個(gè)生物大腦和和一臺(tái)計(jì)算機(jī)所能取得成就來說,其間不存在深刻的差別”?何況有人已經(jīng)開始打破生物大腦和計(jì)算機(jī)的區(qū)別!
& Z5 \2 v) j2 x4 C: m2 t1 n- u2 O7 [) C2 G- n* _3 X. z

: x2 Z. T* ]- q- j7 M1 ^  f首先,智能上的優(yōu)越是人類成為地球主宰的唯一終極依靠。人類的體能不如狗熊、犀牛、大象,速度不如獵豹或鹿馬狼,嗅覺不如狗,聽覺不如蝙蝠……唯一超越地球上這些動(dòng)物的,就是智力,也正因?yàn)橹橇Φ膬?yōu)勢(shì),人類做了地球的主人。按照這一被人類自己已經(jīng)證明了的“智力決定論”,當(dāng)然誰的智力最優(yōu)秀,或說誰智力能超過人類,誰就是地球的主人。/ D- c3 \8 W0 v7 m! P  ]

' N) ^  e7 H5 R5 T. {其次,機(jī)器的智力在圍棋上超過人類,無論怎樣評(píng)估其嚴(yán)重性都不過分。本人作為業(yè)余圍棋愛好者,多年之前就和圍棋軟件下過棋,那時(shí)如果我完全按照圍棋里的“定式”下,是比不過軟件的,因?yàn)檐浖肋h(yuǎn)沒有記憶錯(cuò)誤。但是當(dāng)我脫離“定式”,哪怕下了一著人人皆知的百分之百的“臭招”,圍棋軟件立即就找不著北了,于是軟件肯定就開始亂下了,自己就能贏了軟件。但是現(xiàn)在,這阿爾法狗已經(jīng)戰(zhàn)勝了幾乎全部人類現(xiàn)有高手,肯定是已經(jīng)克服了一招一式必須暴力計(jì)算的弱點(diǎn)!我深知,圍棋的特點(diǎn)就是在所謂“大局觀”上的虛擬性、籠統(tǒng)性、概括性,也就是不精確性,這正是需要精確計(jì)算的機(jī)器最不足的地方,但是今天,被阿爾法狗的設(shè)計(jì)者用策略網(wǎng)絡(luò)和機(jī)器自動(dòng)更新策略(即機(jī)器自我學(xué)習(xí)功能)解決了,這和當(dāng)年的深藍(lán)用暴力計(jì)算戰(zhàn)勝國際象棋世界冠軍是完全不可同日而語的!換句話說,就是機(jī)器可以自己學(xué)習(xí)了!這不就是每一代人從小到大干的主要事情嗎?況且機(jī)器如果掌握了學(xué)習(xí)能力,肯定可以比人類干得好!因?yàn)闄C(jī)器是沒有遺忘的!它學(xué)習(xí)過的東西都是過目不忘!2 L7 N  l: H# @
2 Q1 B) n9 h9 @* X9 Z& ~
智力是學(xué)習(xí)的結(jié)果,機(jī)器學(xué)會(huì)了學(xué)習(xí),其智力的突飛猛進(jìn)就可以期待了。有了無與倫比的學(xué)習(xí)能力、無與倫比的記憶能力、無與倫比的計(jì)算能力,加上無與倫比的不知疲倦的體力,機(jī)器將超過人類還是什么不可想象的事嗎?
; R: y& z% {7 w/ J/ S8 r
4 X8 A& ?+ j" v$ A最后結(jié)論自然就出來了——3 l$ D8 K. I/ J3 n( R
  I% m, T3 Z7 L( L, d+ R
地球上的既定法則是智力決定控制權(quán),智力決定地球歸誰控制,機(jī)器的智力如果超過人類,那地球最終自然要?dú)w屬于機(jī)器!而一旦放任機(jī)器智能的自由發(fā)展,由于機(jī)器相對(duì)于人類的上述優(yōu)勢(shì)(學(xué)習(xí)、記憶、計(jì)算、體力等),人類只能甘拜下風(fēng)!再說,一個(gè)各項(xiàng)能力遠(yuǎn)超人類的“機(jī)器學(xué)霸”,還不具有人類的情感(主要指人類中高尚的部分情感)——主要是沒有憐憫之心,智能機(jī)器能做出什么來?(又有人會(huì)說可以給機(jī)器加上“高尚情感”!問題在于,你可以去加“高尚情感”,一定專門有人要加“無惡不作”!這樣,邪惡機(jī)器其實(shí)無窮無盡的!那時(shí)的恐怖襲擊完全由機(jī)器人就可以完成!而且會(huì)比人類中的恐怖份子更殘忍?。?font class="jammer">6 J; A3 f' T4 Y, L

6 y7 F8 D: R4 K1 a這還不是非常可怕的前景嗎?美國科幻電影里表現(xiàn)過很多次的機(jī)器與人類的戰(zhàn)爭(zhēng)已經(jīng)近在咫尺!那些美國科幻電影簡(jiǎn)直就是提前模擬的人機(jī)戰(zhàn)爭(zhēng)的預(yù)演教育片!# X9 t% i( `% r7 X9 J" @# Z

  F3 M( O) w: O$ h早晚有一天,人類必須坐到一起,鄭重討論是否該賦予機(jī)器(本人所說的機(jī)器即人工智能,即智能機(jī)器)選舉權(quán)的問題!但機(jī)器的數(shù)量卻是幾乎可以無限生產(chǎn)的!這樣一來,人類連數(shù)量上都輸?shù)袅耍瑱?quán)利還能不拱手讓出嗎?那樣,人類只能作為機(jī)器的奴隸了。4 P' x! ?/ ]7 q% _9 K% `

3 l( k+ r& r( h) ?; N3 r5 ?有人說人類可以提前對(duì)人工智能做一些限制,可以簽一些全球性的協(xié)議。那我們看看原子彈技術(shù)的擴(kuò)散歷程吧!至今,聯(lián)合國多次制裁協(xié)議都不能阻止狂熱的朝鮮追求核武器的努力!何況主要個(gè)人技術(shù)為主的人工智能的擴(kuò)散呢?地球上永遠(yuǎn)有一些狂人是不受正常人控制的,這就象精神病人,至今人類都不能控制精神病人的發(fā)病、不能根治此病,更別提個(gè)別狂人對(duì)人工智能的追求!這些在美國的科幻電影中也早就警告過了!何況,很可能與大家的愿望相反,人工智能極可能被有些國家首先用于戰(zhàn)爭(zhēng)!以筆者有限的戰(zhàn)爭(zhēng)知識(shí),排雷機(jī)器人的智能化就將遠(yuǎn)遠(yuǎn)超過人類,試想,一個(gè)配合X光透視的機(jī)器人排雷;是人類可比的嗎?比人類中的恐怖份子更殘忍的機(jī)器人恐怖襲擊加上超越的智力,是人類阻止的了的嗎?這些,難道不應(yīng)該提前預(yù)防嗎?" ^9 o( t# B  `) o4 |
# g# _3 U" Z$ t' t
總之,我們知道人工智能的全面普及已經(jīng)不可避免,很可能在幾十年內(nèi)實(shí)現(xiàn)。但是對(duì)人工智能的危害很多人還沒有足夠的警惕,他們并不知道人類正在玩兒火。就象霍金所說的:“強(qiáng)大人工智能的崛起可能是人類遇到的最好的事情,也可能是最壞的事情”。如果多數(shù)人對(duì)此沒有足夠的警惕,人類的毀滅就等不到太陽熄火的那一天了!0 F1 Y9 R0 E: P1 T  ]/ v7 |! k5 u5 r
2 B+ S5 F  J1 X, U  G& V
13#
發(fā)表于 2018-7-31 13:04:01 | 只看該作者
提示: 作者被禁止或刪除 內(nèi)容自動(dòng)屏蔽
14#
發(fā)表于 2018-7-31 18:11:41 | 只看該作者
人工智能發(fā)展好快 啊
15#
發(fā)表于 2018-8-1 08:11:21 | 只看該作者
目前的所謂人工智能,仍然還是停留在--機(jī)器按照人類的指令執(zhí)行,想要機(jī)器自己有思想,目前的技術(shù)根本無法實(shí)現(xiàn)
16#
發(fā)表于 2018-8-1 09:27:13 | 只看該作者
感覺好像不久的將來所有人都會(huì)失業(yè)了
17#
發(fā)表于 2018-8-1 11:29:10 | 只看該作者
不是高級(jí)工程師 發(fā)表于 2018-8-1 09:276 P" C$ p1 p9 C/ G
感覺好像不久的將來所有人都會(huì)失業(yè)了
, Q/ o$ t3 k6 X6 f6 {
每一次革命都伴隨著一部分人的淘汰和一部分人的崛起,唯有先接受再不斷學(xué)習(xí)
+ X. o: j- K4 ?
18#
發(fā)表于 2018-8-2 08:25:17 | 只看該作者
人工智能用好了十人類的福音,用不好就成了災(zāi)難。如果被別有用心的壞人掌握,是不是要發(fā)動(dòng)機(jī)器人的戰(zhàn)爭(zhēng)?
19#
發(fā)表于 2018-8-2 16:19:11 | 只看該作者
杞人憂天
20#
發(fā)表于 2018-8-2 18:08:44 | 只看該作者
人工智能再發(fā)達(dá),很難取代機(jī)械工程師。記得一次看新聞聯(lián)播上,國外的分析。

本版積分規(guī)則

Archiver|手機(jī)版|小黑屋|機(jī)械社區(qū) ( 京ICP備10217105號(hào)-1,京ICP證050210號(hào),浙公網(wǎng)安備33038202004372號(hào) )

GMT+8, 2025-7-16 18:08 , Processed in 0.090714 second(s), 13 queries , Gzip On.

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回復(fù) 返回頂部 返回列表