人妻暴雨中被强制侵犯在线,亚洲国产欧美日韩精品一区二区三区,四虎影免看黄,国产无人区二卡三卡四卡不见星空

 找回密碼
 注冊會員

QQ登錄

只需一步,快速開始

搜索
查看: 4999|回復(fù): 11

突發(fā)奇想,如果使用2臺alphaGO主機,使用同樣的算法和策略,互奕一局,結(jié)局如何?

[復(fù)制鏈接]
1#
發(fā)表于 2016-3-10 18:31:07 | 只看該作者 |倒序瀏覽 |閱讀模式
這個是不是有點自相矛盾的味道?? 但是我對結(jié)果很感興趣
2#
發(fā)表于 2016-3-10 18:42:38 | 只看該作者
這算是“迭代”嗎,昨天也想到這個了
5 _- R& M8 T# \7 |1 r  U以后辦圍棋賽,可以分設(shè)AI組與人類組,

點評

這東西只要勝一次,以后就會無敵的,跟人不同,人是有年紀(jì)的,到一個年紀(jì)會出昏招,而這東西是學(xué)了所有‘?dāng)≌摺钠遄V,做‘博弈統(tǒng)計’,用概率跟你玩,你肯定就沒戲了,如果留下一個高手是‘勝者’,則可以再撐  發(fā)表于 2016-3-10 18:51
3#
發(fā)表于 2016-3-10 18:42:49 | 只看該作者
勝負五五開吧
4#
發(fā)表于 2016-3-10 18:46:55 | 只看該作者
早已經(jīng)自我進化3000多萬局啦
/ V' O2 G  c& N' t  v
5 v  a* c5 P1 J  S& C6 {靠人來比試獲取電腦算法經(jīng)驗值的速度太慢
, |" }) c5 g7 t& W9 l! J; T1 T6 G
5#
發(fā)表于 2016-3-10 18:47:33 | 只看該作者
不會的,依然是一方贏,并且肯定是一方贏,毫無疑問,
- K( @2 U! n$ C6 S
. x3 n1 Q6 S' r因為每個系統(tǒng)是一個小組,其‘策略’是完全不同的,就是那個‘總策略’的算法與智商水平,決定了誰是贏家,這家伙假如到賭場,肯定被‘勸阻’的,跟山本一個級別,山本就進不了賭場,
$ i2 P: M8 j3 {7 ?
. @- o6 j5 f# u, o' s4 @這個,就跟我玩自動裝配是一個道理,你裝配車的路徑每個人算法是不同的,最終效率是不同的,: Z, K5 R- O% b% N4 h! i% ?
) Q' K! v! s5 T2 a- V% Y
古狗其實就是向全世界宣布,阿拉是‘老大’,以前是IBM是老大,再后來是洛馬,
! }8 C3 P0 `# d* p) F8 {) [! _. x! y0 l3 |3 c8 B& ^/ ^, P) B3 N
洛馬被熊給戲了一次,丟了大面子,但迅速就找回來了,依然用170飛,就是‘挑戰(zhàn)與賭氣’,哈哈,4 ~9 o& A7 @/ i1 R# C

. E+ G9 Y0 _3 `: c; D) m( v跑速度與航程,跑不過諾格,有點‘丟分兒’哈哈,# O3 K' k: ~& Z4 g
1 I" z/ v- U+ |$ x4 @
總體說水平,可能現(xiàn)在還是洛馬第一,古狗大概排第二,因為洛馬玩這些東西的人,是古狗的好多倍,但也不排除古狗里面有一個‘絕世天才’,跟布勞恩一樣的家伙,( j7 f% |+ G" G8 E7 Q# f

6 F. |7 E' ]: m; L4 [( X就像中國專家希望在‘神農(nóng)架’里面找的‘非凡者’,哈哈,他們跟俺說這些,俺哈哈大笑,
) o  J4 T- q  s/ v, u0 D" h6 n: j. U; H6 y( B7 Q3 c( X
中米社會條件不同,論侃,米國肯定不是對手,哈哈,

點評

聯(lián)系這個想到波士頓動力的那個機器人,結(jié)合起來是相當(dāng)驚人的東西,可以做很多事情  發(fā)表于 2016-3-11 08:23
6#
 樓主| 發(fā)表于 2016-3-10 18:48:23 | 只看該作者
滅嘎嘎 發(fā)表于 2016-3-10 18:42 6 v- t- p& K/ g. c
勝負五五開吧
3 S9 ^+ M6 l- \7 ?
我曾經(jīng)在一臺雙路E5 2680 v2的主機上,使用軟件對軟件下象棋,總計25盤,本來我以為,這個應(yīng)該遵循p=0.5的0-1分布,但是,結(jié)果讓人意想不到,紅對藍,紅勝22盤
7 Q) w* m, X* `- L6 Z9 f

點評

同樣軟件嗎?如果是這樣,紅藍算法肯定有區(qū)別!  發(fā)表于 2016-3-10 19:59
7#
 樓主| 發(fā)表于 2016-3-10 18:49:40 | 只看該作者
2266998 發(fā)表于 2016-3-10 18:47 ( c  r* R: i6 ~% \3 V2 K% J1 V; x" P- M. H4 v
不會的,依然是一方贏,并且肯定是一方贏,毫無疑問,
  F1 ^% R+ F' t% w* \$ ]
7 ?; b7 r1 E- d" k( b3 i因為每個系統(tǒng)是一個小組,其‘策略’是完全不同的 ...

7 A  e' a" l0 R" e9 X我曾經(jīng)在一臺雙路E5 2680 v2的主機上,使用軟件對軟件下象棋,總計25盤,本來我以為,這個應(yīng)該遵循p=0.5的0-1分布,但是,結(jié)果讓人意想不到,紅對藍,紅勝22盤;看來就像8爺所說的那樣,還是一方贏
. E7 w4 e" W/ G: d

點評

當(dāng)年買了給妹妹做渲染用的,有64G ECC內(nèi)存,總價3萬吧  發(fā)表于 2016-3-10 18:59
雙cpu、e5、2680v2工作站服務(wù)器級,20核40線程,這配置超萬把了。  發(fā)表于 2016-3-10 18:58
機器這個東西,是贏者恒贏的,必須留下一個家伙,是贏機器的,沒有這個家伙,機器就把所有人當(dāng)作‘?dāng)ⅰ?,其運算邏輯與‘博弈概率’就回到最后被它打敗的那個家伙的算法去了,因為其它家伙都輸給這家伙,  發(fā)表于 2016-3-10 18:55
8#
發(fā)表于 2016-3-10 19:30:11 | 只看該作者
馬上fps,rts游戲也要沒意思了,阿爾法狗下一個目標(biāo)就是星際爭霸。
$ T8 ^! s4 W3 W- `) Y% ^6 k' b' u8 a) N+ V1 b1 x
幸好我已經(jīng)是劇情黨了。
9#
發(fā)表于 2016-3-10 19:34:25 | 只看該作者
看了下DeepMind團隊發(fā)表在Nature上的文章,AlphaGO深度學(xué)習(xí)、蒙特卡羅樹狀搜索、自我進化三大招齊出。換句話說,最開始的時候AlphaGO并不會下棋,怎么走完全靠隨機蒙,那些蒙對的走法會記憶下來,那些蒙錯的走法會淘汰,這就是訓(xùn)練。等下次再對弈時,就會使用上次蒙對的走法。經(jīng)過上萬次甚至甚至上億次的訓(xùn)練淘汰,水平會不斷上升,也就實現(xiàn)了自我進化。+ {; R1 I  A. c1 p; L
根據(jù)這個原理,兩個AlphaGO對弈,總會有一個獲勝,獲勝的新的走法會保留,失敗的會淘汰,實現(xiàn)進化。這很像人類的自然進化法則,這也正是AkphaGO厲害的地方。0 F" ?# B; u3 c
事實上目前AlphaGO的技能很大程度上都是通過自己左右互搏學(xué)習(xí)到的。

點評

好可怕!  發(fā)表于 2016-3-11 11:56
原來是這樣?。?nbsp; 發(fā)表于 2016-3-11 08:20

評分

參與人數(shù) 2威望 +2 收起 理由
不懂的太多xx + 1
愛貓人士薛定諤 + 1

查看全部評分

10#
發(fā)表于 2016-3-11 09:43:48 | 只看該作者
外太空這要這家伙去開疆拓土,進化吧
您需要登錄后才可以回帖 登錄 | 注冊會員

本版積分規(guī)則

Archiver|手機版|小黑屋|機械社區(qū) ( 京ICP備10217105號-1,京ICP證050210號,浙公網(wǎng)安備33038202004372號 )

GMT+8, 2025-7-20 18:36 , Processed in 0.094731 second(s), 22 queries , Gzip On.

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回復(fù) 返回頂部 返回列表