a**********h 发帖数: 370 | 1 下棋主要是要培养reading skill,就是怎么面对一个空盘,想象出几百步以后棋盘摆
满时的样子。
一般人都是要锻炼很久,但是对计算机完全不是问题。 |
g******t 发帖数: 11249 | 2 就跟人生规划一样
牛逼的人未必多聪明,只不过比别人多看了几步(年)而已
【在 a**********h 的大作中提到】 : 下棋主要是要培养reading skill,就是怎么面对一个空盘,想象出几百步以后棋盘摆 : 满时的样子。 : 一般人都是要锻炼很久,但是对计算机完全不是问题。
|
c*********3 发帖数: 6862 | |
V********n 发帖数: 3061 | 4 要用有限的资源做几乎等于无限大的计算,不是那么容易的。这是计算机科学里终极的
课题 |
a**********h 发帖数: 370 | 5 傻逼,你会下吗
【在 c*********3 的大作中提到】 : 不懂装懂,笑死人
|
x********e 发帖数: 35261 | 6 确实是不懂装懂。稍微训练一下算几百步不成问题。难的是各种变化的形式判断。现在
的AI也不是傻算到死啊。 |
c*********3 发帖数: 6862 | 7
我不用会下(虽然我也确实会围棋),我只是比你看的东西多一点。你觉得alpha go就
是简单的机器试错死算,简直贻笑大方。
AlphaGo设计师黄士杰:“最强的学习技能在人类的脑袋里”
http://www.ftchinese.com/story/001075040#adchannelID=2100
AlphaGo是怎么开始的?
回到一开始,AlphaGo到底是怎么开始的?起点是有三组人马的聚集:Deepmind首席执
行官Demis Hassabis与AlphaGo项目领导David Silver、我、还有两位谷歌大脑(Google
brain)的同事Chris Maddison和Ilya Sutskever。
Demis和David原本是剑桥大学的同学,友情深厚。对西方人来说,当1997年IBM超级电
脑“深蓝”赢了西洋棋棋王卡斯巴罗夫之后,就只剩下流传几千年的中国围棋,是人工
智能发展的极大挑战。一开始,很多研究人员想把研究西洋棋的技术移到围棋上,但都
失败了。在2006年蒙特卡洛树搜索出来后,研究才提升一阶,让机器棋手的水平能达到
业余三段,但离职业棋士一段还有距离。Demis和David心中开始藏有一个梦,希望有一
天要能做出一个很强的围棋程式。
但有梦的不只有他们,故事的另一条线还有我。
在就读台湾师范大学资讯工程博士班时,我每天埋头解bug、写代码,就是希望做一个
很强的围棋程序。2010年,我研发出的围棋计算机程序Erica(事实上是用我妻子的名
字来命名),在计算机奥林匹亚获得 19 路围棋的冠军。虽然Erica只是单机版,但它
打败了用了6台PC的日本程序Zen跟其他参赛者,就像小虾米对抗大鲸鱼。当年还在英国
当教授的David,在比赛后写信问我有没有兴趣加入Deepmind,隔年我也正式加入团队
,成为第40号员工。
我还记得当年面试,老板问我,能做出Erica有什么感觉?我回答,满有成就的。Demis
点头,他明白我的感觉。
2014年,Google收购Deepmind,AlphaGo项目也正式浮现。Demis起初还在教书、还不是
全职员工,就常三不五时走过来跟我讨论围棋项目的想法。真的要开始时,我们其实都
已经有些准备。
既然决定要做围棋项目,当时我和Demis有一个共识,就是绝对不要复制Erica。Erica
其实有它的极限,最勉强的就是达到业余三段,继续复制的意义不大。我们想做不一样
的事,希望能运用到深度学习的原理。过了几个月,团队又增加了两个人,包括深度学
习之父以及带动深度学习革命的研究者。
我们怎么判断深度学习可能应用到围棋?如果人类可以一看棋盘就知道下哪一步会是好
棋,那么神经网络也可能办得到这种"直觉"。但如果人类得想五分钟才能给出答案,神
经网络可能办不到。一开始,我们训练AlphaGo从人类的棋谱去学习人类的直觉。我还
记得第一次测试神经网络,没想到能表现得那么好,百分之百对战都不会输,是一种碾
压式的胜利。
AlphaGo第二个突破的是价值网络。我记得当David跟我说他有这样一个点子时,我还质
疑,这会成吗?当我们把策略网络(Policy Network)做出来后,最强的程式可以达到70
%到80%的胜率,算得上是世界最强的。但老板的目标不只于此,我们又继续找人、继
续扩充团队。
这过程其实很辛苦,尝试很多,譬如网络要多深、要用什么架构?数据库有没有问题?
最终检验的,还是看AlphaGo有没有变强。过了一个月之后,我们找到了问题并且解决
掉,我仍然记得,旧版AlphaGo配上价值网络产生的新版AlphaGo,第一次的实验结果是
达到95%的胜率,棋力非常强。可以这么说,AlphaGo的成功就是深度学习与强化学习的
胜利,因为两者结合在一起,建构判断形式的价值网络(Value Network),后来也成为
AlphaGo Zero的主要理论。
当价值网络出来后,Demis希望我们能与欧洲职业一段棋手进行比赛。当下,我除了要
做价值网络,还要研究平行网络搜索技术,Demis走过来说要比赛,我只想着:真的那
么有信心吗?
后来我们与欧洲围棋冠军樊麾进行比赛,最终以5比0获胜,这结果其实也很不可思议。
我记得樊麾输了第二盘棋后,想出去走走,会说中文的我,原本想去陪他,他挥挥手,
“不用,我自己出去透透气。”
难能可贵的是,樊麾是第一个被AI打败的职业棋士,但他的态度非常正面。樊麾在第五
盘棋虽然认输了,但他对AI并没有感到害怕,后来甚至也加入了团队,帮忙测试
AlphaGo。
【在 a**********h 的大作中提到】 : 傻逼,你会下吗
|
a**********h 发帖数: 370 | 8 读出各种变化也是reading skill,傻逼
人类唯一的优势是揣测对方的心理意图
【在 x********e 的大作中提到】 : 确实是不懂装懂。稍微训练一下算几百步不成问题。难的是各种变化的形式判断。现在 : 的AI也不是傻算到死啊。
|
a**********h 发帖数: 370 | 9 我说计算机是死算了吗
Google
【在 c*********3 的大作中提到】 : : 我不用会下(虽然我也确实会围棋),我只是比你看的东西多一点。你觉得alpha go就 : 是简单的机器试错死算,简直贻笑大方。 : AlphaGo设计师黄士杰:“最强的学习技能在人类的脑袋里” : http://www.ftchinese.com/story/001075040#adchannelID=2100 : AlphaGo是怎么开始的? : 回到一开始,AlphaGo到底是怎么开始的?起点是有三组人马的聚集:Deepmind首席执 : 行官Demis Hassabis与AlphaGo项目领导David Silver、我、还有两位谷歌大脑(Google : brain)的同事Chris Maddison和Ilya Sutskever。 : Demis和David原本是剑桥大学的同学,友情深厚。对西方人来说,当1997年IBM超级电
|
x********e 发帖数: 35261 | 10 你算功达到水平了根本不需要揣测对方意图
【在 a**********h 的大作中提到】 : 读出各种变化也是reading skill,傻逼 : 人类唯一的优势是揣测对方的心理意图
|
|
|
a**********h 发帖数: 370 | 11 每个人都有心理意图,所以跟熟人下棋更有意思,计算机这方面不如人
【在 x********e 的大作中提到】 : 你算功达到水平了根本不需要揣测对方意图
|
x********e 发帖数: 35261 | 12 你说话顾头不顾腚啊。赶紧回头看看你的观点。这样能下好棋吗?
【在 a**********h 的大作中提到】 : 每个人都有心理意图,所以跟熟人下棋更有意思,计算机这方面不如人
|
a**********h 发帖数: 370 | 13 是你不懂好吗?你还是算你的星盘去吧
【在 x********e 的大作中提到】 : 你说话顾头不顾腚啊。赶紧回头看看你的观点。这样能下好棋吗?
|
x********e 发帖数: 35261 | 14 哟这谁马甲啊,还知道我擅长占星
【在 a**********h 的大作中提到】 : 是你不懂好吗?你还是算你的星盘去吧
|
a**********h 发帖数: 370 | 15 我还知道你擅长潮吹呢
【在 x********e 的大作中提到】 : 哟这谁马甲啊,还知道我擅长占星
|