机械社区

 找回密码
 注册会员

QQ登录

只需一步,快速开始

搜索
查看: 4660|回复: 11

突发奇想,如果使用2台alphaGO主机,使用同样的算法和策略,互奕一局,结局如何?

[复制链接]
发表于 2016-3-10 18:31:07 | 显示全部楼层 |阅读模式
这个是不是有点自相矛盾的味道?? 但是我对结果很感兴趣
回复

使用道具 举报

发表于 2016-3-10 18:42:38 | 显示全部楼层
这算是“迭代”吗,昨天也想到这个了' y! u+ C" J3 o- B( v- \4 `
以后办围棋赛,可以分设AI组与人类组,

点评

这东西只要胜一次,以后就会无敌的,跟人不同,人是有年纪的,到一个年纪会出昏招,而这东西是学了所有‘败者’的棋谱,做‘博弈统计’,用概率跟你玩,你肯定就没戏了,如果留下一个高手是‘胜者’,则可以再撑  发表于 2016-3-10 18:51
回复 支持 2 反对 0

使用道具 举报

发表于 2016-3-10 18:42:49 | 显示全部楼层
胜负五五开吧
回复 支持 2 反对 0

使用道具 举报

发表于 2016-3-10 18:46:55 | 显示全部楼层
早已经自我进化3000多万局啦) E, F4 U+ N; R# G* O- n5 e' j

$ i3 U; q& \! s* ~7 N& D3 r4 Z4 W靠人来比试获取电脑算法经验值的速度太慢0 M$ }5 s  d/ Q  x
回复 支持 1 反对 1

使用道具 举报

发表于 2016-3-10 18:47:33 | 显示全部楼层
不会的,依然是一方赢,并且肯定是一方赢,毫无疑问,
$ t# q# _) N- }5 u; s1 s( u0 l/ P( }* `8 ^! ~8 [" ?
因为每个系统是一个小组,其‘策略’是完全不同的,就是那个‘总策略’的算法与智商水平,决定了谁是赢家,这家伙假如到赌场,肯定被‘劝阻’的,跟山本一个级别,山本就进不了赌场,
4 |6 P" B+ R6 @* f, r9 X  b
/ P1 p1 J* n: |( d4 m) t这个,就跟我玩自动装配是一个道理,你装配车的路径每个人算法是不同的,最终效率是不同的,
0 ]& J( M- }& Q' |
/ m% g* C( L7 S# i, R0 J古狗其实就是向全世界宣布,阿拉是‘老大’,以前是IBM是老大,再后来是洛马,
! @6 R: ?+ P+ Z) x6 A# D/ n
* `. _8 A+ F9 ~7 m) a洛马被熊给戏了一次,丢了大面子,但迅速就找回来了,依然用170飞,就是‘挑战与赌气’,哈哈,
# @7 V4 t, t! {5 |: p
$ x# ?. n' m! c  `跑速度与航程,跑不过诺格,有点‘丢分儿’哈哈,
- y" L; J- M' w2 f2 u5 \& u; H5 e
- d! U2 y6 u1 ]5 Q6 ]4 y; O8 i总体说水平,可能现在还是洛马第一,古狗大概排第二,因为洛马玩这些东西的人,是古狗的好多倍,但也不排除古狗里面有一个‘绝世天才’,跟布劳恩一样的家伙,
% G9 ?7 T- k* C- M" g6 x/ E* {1 q! ?  C! d7 [
就像中国专家希望在‘神农架’里面找的‘非凡者’,哈哈,他们跟俺说这些,俺哈哈大笑,
* E% J$ W% _* E) _7 y; b& t& ^  _# R0 [& e% D; @1 C( z
中米社会条件不同,论侃,米国肯定不是对手,哈哈,

点评

联系这个想到波士顿动力的那个机器人,结合起来是相当惊人的东西,可以做很多事情  发表于 2016-3-11 08:23
回复 支持 2 反对 0

使用道具 举报

 楼主| 发表于 2016-3-10 18:48:23 | 显示全部楼层
灭嘎嘎 发表于 2016-3-10 18:42 - L8 C1 T) I7 d. p
胜负五五开吧
* a& _0 ]) Y7 L1 a1 M% N& l& h. T
我曾经在一台双路E5 2680 v2的主机上,使用软件对软件下象棋,总计25盘,本来我以为,这个应该遵循p=0.5的0-1分布,但是,结果让人意想不到,红对蓝,红胜22盘* [* K7 P  `" s5 h; f# _

点评

同样软件吗?如果是这样,红蓝算法肯定有区别!  发表于 2016-3-10 19:59
回复 支持 反对

使用道具 举报

 楼主| 发表于 2016-3-10 18:49:40 | 显示全部楼层
2266998 发表于 2016-3-10 18:47 6 }- i& F1 u) R* a6 r2 B
不会的,依然是一方赢,并且肯定是一方赢,毫无疑问,
1 L) S2 U/ @8 I( {: |8 o) \3 ?! d% m" e1 i5 ~% W( _/ ?
因为每个系统是一个小组,其‘策略’是完全不同的 ...
( V; g) u+ s- k& k: u! L. X0 y
我曾经在一台双路E5 2680 v2的主机上,使用软件对软件下象棋,总计25盘,本来我以为,这个应该遵循p=0.5的0-1分布,但是,结果让人意想不到,红对蓝,红胜22盘;看来就像8爷所说的那样,还是一方赢
0 d* ^! }+ |7 H8 A) y

点评

当年买了给妹妹做渲染用的,有64G ECC内存,总价3万吧  发表于 2016-3-10 18:59
双cpu、e5、2680v2工作站服务器级,20核40线程,这配置超万把了。  发表于 2016-3-10 18:58
机器这个东西,是赢者恒赢的,必须留下一个家伙,是赢机器的,没有这个家伙,机器就把所有人当作‘败将’,其运算逻辑与‘博弈概率’就回到最后被它打败的那个家伙的算法去了,因为其它家伙都输给这家伙,  发表于 2016-3-10 18:55
回复 支持 反对

使用道具 举报

发表于 2016-3-10 19:30:11 | 显示全部楼层
马上fps,rts游戏也要没意思了,阿尔法狗下一个目标就是星际争霸。
9 c) @0 s7 f) u- }) [/ U, L* x) G3 _5 x+ P5 o
幸好我已经是剧情党了。
回复 支持 反对

使用道具 举报

发表于 2016-3-10 19:34:25 | 显示全部楼层
看了下DeepMind团队发表在Nature上的文章,AlphaGO深度学习、蒙特卡罗树状搜索、自我进化三大招齐出。换句话说,最开始的时候AlphaGO并不会下棋,怎么走完全靠随机蒙,那些蒙对的走法会记忆下来,那些蒙错的走法会淘汰,这就是训练。等下次再对弈时,就会使用上次蒙对的走法。经过上万次甚至甚至上亿次的训练淘汰,水平会不断上升,也就实现了自我进化。+ Y1 P! E" L8 w. F0 ~& f
根据这个原理,两个AlphaGO对弈,总会有一个获胜,获胜的新的走法会保留,失败的会淘汰,实现进化。这很像人类的自然进化法则,这也正是AkphaGO厉害的地方。
, h. W1 p  `, o8 U2 V* l事实上目前AlphaGO的技能很大程度上都是通过自己左右互搏学习到的。

点评

好可怕!  发表于 2016-3-11 11:56
原来是这样啊!  发表于 2016-3-11 08:20

评分

参与人数 2威望 +2 收起 理由
不懂的太多xx + 1
爱猫人士薛定谔 + 1

查看全部评分

回复 支持 反对

使用道具 举报

发表于 2016-3-11 09:43:48 | 显示全部楼层
外太空这要这家伙去开疆拓土,进化吧
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册会员

本版积分规则

小黑屋|手机版|Archiver|机械社区 ( 京ICP备10217105号-1,京ICP证050210号,浙公网安备33038202004372号 )

GMT+8, 2025-2-22 21:52 , Processed in 0.056154 second(s), 15 queries , Gzip On.

Powered by Discuz! X3.4 Licensed

© 2001-2017 Comsenz Inc.

快速回复 返回顶部 返回列表