h***n 发帖数: 1275 | 1 讲的话很不靠谱。
一旦训练好,比赛过程中是没法学习的,这他不知道么 |
l**a 发帖数: 94 | 2 系主任估计本来就不是做AI的,
之前也不做神经网络,
估计不太懂deep learning。
或者是鄙视观众,反正说的清楚了观众不懂
胡说一通观众就以为自己懂了。 |
h***n 发帖数: 1275 | 3 匪夷所思的是,国内各个媒体评论请的专家,没一个对阿发狗的原理说的靠点谱的,
nature的论文就在那,山寨狗也在GitHub了,真心无语。
还有请来的江铸就,被问到三盘结束后棋界认为能让几子,竟然说让不动。
【在 l**a 的大作中提到】 : 系主任估计本来就不是做AI的, : 之前也不做神经网络, : 估计不太懂deep learning。 : 或者是鄙视观众,反正说的清楚了观众不懂 : 胡说一通观众就以为自己懂了。
|
x****i 发帖数: 729 | 4 还是聂老看得准,而且敢说真话。狗的布局7段水平,中盘13段。
【在 h***n 的大作中提到】 : 匪夷所思的是,国内各个媒体评论请的专家,没一个对阿发狗的原理说的靠点谱的, : nature的论文就在那,山寨狗也在GitHub了,真心无语。 : 还有请来的江铸就,被问到三盘结束后棋界认为能让几子,竟然说让不动。
|
b***y 发帖数: 14281 | 5 是你在扯吧,比赛中怎么不能学习?
【在 h***n 的大作中提到】 : 讲的话很不靠谱。 : 一旦训练好,比赛过程中是没法学习的,这他不知道么
|
M*******p 发帖数: 5626 | 6 那个苹果皮之父说话磕磕巴巴,但是好像他是明白原理的,因为他们就用同样的原理做
人脸识别,而且他也看过那篇Nature文章。
【在 h***n 的大作中提到】 : 匪夷所思的是,国内各个媒体评论请的专家,没一个对阿发狗的原理说的靠点谱的, : nature的论文就在那,山寨狗也在GitHub了,真心无语。 : 还有请来的江铸就,被问到三盘结束后棋界认为能让几子,竟然说让不动。
|
a***m 发帖数: 5037 | 7 这个属于 online/continual learning 。
阿尔法狗目前还不具备
【在 b***y 的大作中提到】 : 是你在扯吧,比赛中怎么不能学习?
|
o*****p 发帖数: 2977 | 8 而且学也学不会。因为一盘棋的权重太小了。Alphago是几千万盘训练出来的。贸然改
变权重的话,后果不可测,几乎肯定会变差。
【在 a***m 的大作中提到】 : 这个属于 online/continual learning 。 : 阿尔法狗目前还不具备
|
a***m 发帖数: 5037 | 9 阿狗工程师表示有兴趣往这个方向努力下
【在 o*****p 的大作中提到】 : 而且学也学不会。因为一盘棋的权重太小了。Alphago是几千万盘训练出来的。贸然改 : 变权重的话,后果不可测,几乎肯定会变差。
|
b***y 发帖数: 14281 | 10 “比赛中”是指的一盘之中,还是一盘与另一盘之间?后者完全是可以学习的。当然比
重可能是比较小,但如果是具有针对性的学习说不定还是有用的。虽然狗狗自己声称没
有,但这只能姑且一听。
【在 a***m 的大作中提到】 : 这个属于 online/continual learning 。 : 阿尔法狗目前还不具备
|
|
|
o*****p 发帖数: 2977 | 11 深度学习没那么容易有针对性的学习。你得制造大量有针对性的数据去让计算机学习
。但这种复杂盘面,必须是高手才造得出来,象翻悔就多少盘也没试出来。写程序的人
都是业余棋手,水平肯定更低,所以不容易。
【在 b***y 的大作中提到】 : “比赛中”是指的一盘之中,还是一盘与另一盘之间?后者完全是可以学习的。当然比 : 重可能是比较小,但如果是具有针对性的学习说不定还是有用的。虽然狗狗自己声称没 : 有,但这只能姑且一听。
|
l**a 发帖数: 94 | 12 不过文章实在跟nature关系不大,有点店大欺人做广告的嫌疑
还是纯CS的杂志比较好。
其实大概意思也很好解释,所谓学习就是训练策略/估值网络的参数。
用棋谱或者是自己产生的棋谱(左右互搏)
相当于总结经验,这是所谓智能的部分。
MCT是行棋需要用的,当然左右互搏训练也需要用到就是。
相当于应经验产生一个比较小的树形空间去搜索。
这个搜索跟智能没什么太大的关系,就是个投票统计。
【在 h***n 的大作中提到】 : 匪夷所思的是,国内各个媒体评论请的专家,没一个对阿发狗的原理说的靠点谱的, : nature的论文就在那,山寨狗也在GitHub了,真心无语。 : 还有请来的江铸就,被问到三盘结束后棋界认为能让几子,竟然说让不动。
|
l**a 发帖数: 94 | 13 不过文章实在跟nature关系不大,有点店大欺人做广告的嫌疑
还是纯CS的杂志比较好。
其实大概意思也很好解释,所谓学习就是训练策略/估值网络的参数。
用棋谱或者是自己产生的棋谱(左右互搏)
相当于总结经验,这是所谓智能的部分。
MCT是行棋需要用的,当然左右互搏训练也需要用到就是。
相当于应经验产生一个比较小的树形空间去搜索。
这个搜索跟智能没什么太大的关系,就是个投票统计。
【在 h***n 的大作中提到】 : 匪夷所思的是,国内各个媒体评论请的专家,没一个对阿发狗的原理说的靠点谱的, : nature的论文就在那,山寨狗也在GitHub了,真心无语。 : 还有请来的江铸就,被问到三盘结束后棋界认为能让几子,竟然说让不动。
|
b***y 发帖数: 14281 | 14 不管怎么说两盘之间绝对是可以学习的。
【在 o*****p 的大作中提到】 : 深度学习没那么容易有针对性的学习。你得制造大量有针对性的数据去让计算机学习 : 。但这种复杂盘面,必须是高手才造得出来,象翻悔就多少盘也没试出来。写程序的人 : 都是业余棋手,水平肯定更低,所以不容易。
|
I******n 发帖数: 5952 | 15 这一两盘棋对阿狗的学习没啥用,权重太低了
【在 b***y 的大作中提到】 : 不管怎么说两盘之间绝对是可以学习的。
|
o*****p 发帖数: 2977 | 16 按照人类的正常“学习”的定义:这盘出了这个错误,以后大部分有相似的情况都会
警醒,那么答案是:它绝对没能力在两盘之间学习。
【在 b***y 的大作中提到】 : 不管怎么说两盘之间绝对是可以学习的。
|
b***y 发帖数: 14281 | 17 那是你自己的想象。实际上这取决于deepmind算法的具体细节。deepmind从来没有说
过每次学习的权重都是一样的。
【在 o*****p 的大作中提到】 : 按照人类的正常“学习”的定义:这盘出了这个错误,以后大部分有相似的情况都会 : 警醒,那么答案是:它绝对没能力在两盘之间学习。
|
a***m 发帖数: 5037 | 18 我在nature 之前就在其他期刊读到过他们的工作
不过那篇文章没讲和 MCTS 结合 只讲了DeepLearning 部分
【在 l**a 的大作中提到】 : 不过文章实在跟nature关系不大,有点店大欺人做广告的嫌疑 : 还是纯CS的杂志比较好。 : 其实大概意思也很好解释,所谓学习就是训练策略/估值网络的参数。 : 用棋谱或者是自己产生的棋谱(左右互搏) : 相当于总结经验,这是所谓智能的部分。 : MCT是行棋需要用的,当然左右互搏训练也需要用到就是。 : 相当于应经验产生一个比较小的树形空间去搜索。 : 这个搜索跟智能没什么太大的关系,就是个投票统计。
|
o*****p 发帖数: 2977 | 19 看来你对神经网络一点谱都没有。别发表意见了。你是错的。不骗你。
【在 b***y 的大作中提到】 : 那是你自己的想象。实际上这取决于deepmind算法的具体细节。deepmind从来没有说 : 过每次学习的权重都是一样的。
|
l*****z 发帖数: 3022 | 20 其实一盘棋可以学多次吧,学一次各个系数就改变一点点,但是重复学习一百万次对系
数的影响就比较大了,当然这样会over fitting,那是另外一个问题了。这就跟小时候
背课文一样,反复多背些次才能记得住
【在 o*****p 的大作中提到】 : 看来你对神经网络一点谱都没有。别发表意见了。你是错的。不骗你。
|
|
|
t******l 发帖数: 10908 | 21 over-fitting 是不是就好比推娃背课文推太狠,结果把娃给推残了。。。
【在 l*****z 的大作中提到】 : 其实一盘棋可以学多次吧,学一次各个系数就改变一点点,但是重复学习一百万次对系 : 数的影响就比较大了,当然这样会over fitting,那是另外一个问题了。这就跟小时候 : 背课文一样,反复多背些次才能记得住
|
s******n 发帖数: 6806 | 22 对这种棋权重加大不一定是好事,一方面,本来这种比赛选手就太紧张,发挥并不好,
没到自己100%的水平。另一方面,如果加权重,可能会从数据中看出选手的情绪心理这
些问题,狗有可能会模仿,对于纯理性判断可能会造成较大干扰,而且各个棋手情绪心
理也不一样,要模仿也不能模仿一个人的。 |
l*****z 发帖数: 3022 | 23 最好实时监控对手的血压心率,作为指标输入神经网络训练,那就强了
【在 s******n 的大作中提到】 : 对这种棋权重加大不一定是好事,一方面,本来这种比赛选手就太紧张,发挥并不好, : 没到自己100%的水平。另一方面,如果加权重,可能会从数据中看出选手的情绪心理这 : 些问题,狗有可能会模仿,对于纯理性判断可能会造成较大干扰,而且各个棋手情绪心 : 理也不一样,要模仿也不能模仿一个人的。
|
I******n 发帖数: 5952 | 24 overfitting啥后果?不容易converge?
【在 t******l 的大作中提到】 : over-fitting 是不是就好比推娃背课文推太狠,结果把娃给推残了。。。
|
l*****z 发帖数: 3022 | 25 不是不能converge,是converge到过分优化到某一种情况,新情况出来时无法
generalization
【在 I******n 的大作中提到】 : overfitting啥后果?不容易converge?
|
s******n 发帖数: 6806 | 26 overfitting 就会只适用于一类情况,而且是历史数据中的情况,不能推广到其他情况
,别人变招之后就蒙。这种问题很难修正,只能是权衡利弊,想精确就会有
overfitting,想模型通用就会少了准确度。
不太懂围棋,但看各位和职业的讲解,说狗大局观好,局部计算反而相对弱。可能就是
程序员为了避免overfitting,局部计算稍弱。
【在 I******n 的大作中提到】 : overfitting啥后果?不容易converge?
|