阿法狗会死机吗?
1
mofet 2017 年 1 月 5 日
你看不到的时候它一直在自己跟自己下棋。
|
3
RqPS6rhmP3Nyn3Tm 2017 年 1 月 5 日 via iPhone
……这玩意的学习过程主要就是自己和自己下棋,然后学习
|
4
qiayue PRO 今天读读日报上有一篇讲得比较细致,看完你就明白了
|
5
ycge234 2017 年 1 月 5 日
当然是有输有赢,赢的多了那个就可以当下个版本了···
|
6
laoyuan 2017 年 1 月 5 日
想象一下自己给自己调参数,然后两个参数下 100 盘,输了的参数淘汰,继续下一调。。
|
7
ethanlu OP |
8
jmc891205 2017 年 1 月 5 日 把上万只阿尔法狗关在同一个房间里厮杀
能站到最后的那个 就被称为狗中之王:P |
9
Mark24 2017 年 1 月 5 日
他一直和自己下啊,自我学习。
|
10
grayon 2017 年 1 月 5 日
然后 AlphaGo 就变成了 Master
|
11
hackerwgf PRO |
12
debiann 2017 年 1 月 5 日 via iPhone
你没自己跟自己下过棋么,这是自我提高的过程啊
|
13
markx 2017 年 1 月 5 日
结果就是 赢的继续是阿法狗,输的什么都不是。
|
14
SuperMild 2017 年 1 月 5 日 via iPad
输的版本被舍弃,赢的版本继续撕杀,这不就是养蛊吗!
|
15
deadEgg 2017 年 1 月 5 日
感觉楼上很多都不了解深度学习。。
和版本一点关系都没有,阿法狗的版本不是自己迭代的。阿法狗是一个很多层的神经网络架构。版本只和开发调整了网络架构有关。 和自己下棋就像是自己和自己全力玩游戏而已。产生的结果是可以作为样本的,自己下棋会让自己变得更强为啥呢?就是因为样本越来越大。 |
16
zuotech 2017 年 1 月 5 日
这个他们早就测过了,AlphaGo 联机版 VS 单机版 的胜率是 70% , 单台对战胜率应该是 50%咯
|
17
BOYPT 2017 年 1 月 5 日
这不是测不测过的问题, AlphaGo 的下棋过程每一步全都是自己跟自己下,
|
19
BeSmile 2017 年 1 月 5 日
这注定是一场没有结局的战争,一盘棋下一个多世纪
|
21
ayconanw 2017 年 1 月 5 日 说胜率 50%的估计不懂围棋。
目前黑棋贴 7.5 目(或 6.5 目)是人类的凭经验定的,然而人类的围棋经验还远远不足,所以这个贴目未必合适。 alphago 自己跟自己下,要么是执黑胜率远超执白,这说明贴目贴少了;要么是执白胜率远超执黑,这说明贴目贴多了 那么有没有一个贴目 x ,可以让 alphago 自己跟自己 50%呢? 我认为是没有的,因为胜负只有两种状态。比较大可能是贴 x 目黑大概率胜,贴 x+0.5 (具体 0.几都无所谓,因为盘面目数只有整数)目白大概率胜 |
22
stcasshern 2017 年 1 月 5 日
这就是学习过程。。。
|
23
easyzhao 2017 年 1 月 5 日
阿法狗之所以这么厉害就是因为阿法狗一直在和阿法狗下棋
|
24
ovear 2017 年 1 月 5 日
感觉阿法狗玩星际比人类有优势啊,精确到毫秒级别的运营。。
|
25
hoythan 2017 年 1 月 5 日
阿尔法狗每下一子都是跟自己博弈无数把后的最佳结果.
|
30
LeeCloud 2017 年 1 月 5 日
就像高手过招,对视十分钟,一方卒。。。
|
33
scriptB0y 2017 年 1 月 5 日
会出现更厉害的阿发狗
|
34
t6attack 2017 年 1 月 5 日
3 年前, DeepMind 在自主增强学习算法上有了一个突破。这是“深度学习”领域,最接近 AI 的一个研究方向。
其中一个令人振奋的成果,就是不去由程序员编写 传统的固定下棋算法。而是初始化一个空白的深度神经网络系统,然后让 AI 自我对弈,自己学会了下棋。之后通过无限自我对局,不断完善自身。 DeepMind 的论文引起了 Google 的关注,随即以超过 4 亿美金的价格收购了 DeepMind 。 |