由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Go版 - 锵锵请的港大计算机系主任不懂啊
相关主题
Facebook’s AI tech mimics how humans learn大家对Alphago的胜率理解有误
阿法狗生怕人类还不够绝望技术贴(懂围棋的请进)
神经网络的结构决定了他的极限猜一下几个AlphaGo崩了的原因
原来阿尔法下的是5秒版的ZEN蒙特卡罗是不是有天生缺陷?
从第四盘棋看狗狗的弱点阿尔法最大的困难还是局面评估
AlphaGo is not the solution to AI大家都在说狗没算到那一招
阿法狗下围棋离人类还差的远阿发狗片面追求胜率
狗要超时?哈萨比斯又给出新消息
相关话题的讨论汇总
话题: 学习话题: 锵锵话题: 权重话题: 系主任
进入Go版参与讨论
1 (共1页)
h***n
发帖数: 1275
1
讲的话很不靠谱。
一旦训练好,比赛过程中是没法学习的,这他不知道么
l**a
发帖数: 94
2
系主任估计本来就不是做AI的,
之前也不做神经网络,
估计不太懂deep learning。
或者是鄙视观众,反正说的清楚了观众不懂
胡说一通观众就以为自己懂了。
h***n
发帖数: 1275
3
匪夷所思的是,国内各个媒体评论请的专家,没一个对阿发狗的原理说的靠点谱的,
nature的论文就在那,山寨狗也在GitHub了,真心无语。
还有请来的江铸就,被问到三盘结束后棋界认为能让几子,竟然说让不动。

【在 l**a 的大作中提到】
: 系主任估计本来就不是做AI的,
: 之前也不做神经网络,
: 估计不太懂deep learning。
: 或者是鄙视观众,反正说的清楚了观众不懂
: 胡说一通观众就以为自己懂了。

x****i
发帖数: 729
4
还是聂老看得准,而且敢说真话。狗的布局7段水平,中盘13段。

【在 h***n 的大作中提到】
: 匪夷所思的是,国内各个媒体评论请的专家,没一个对阿发狗的原理说的靠点谱的,
: nature的论文就在那,山寨狗也在GitHub了,真心无语。
: 还有请来的江铸就,被问到三盘结束后棋界认为能让几子,竟然说让不动。

b***y
发帖数: 14281
5
是你在扯吧,比赛中怎么不能学习?

【在 h***n 的大作中提到】
: 讲的话很不靠谱。
: 一旦训练好,比赛过程中是没法学习的,这他不知道么

M*******p
发帖数: 5626
6
那个苹果皮之父说话磕磕巴巴,但是好像他是明白原理的,因为他们就用同样的原理做
人脸识别,而且他也看过那篇Nature文章。

【在 h***n 的大作中提到】
: 匪夷所思的是,国内各个媒体评论请的专家,没一个对阿发狗的原理说的靠点谱的,
: nature的论文就在那,山寨狗也在GitHub了,真心无语。
: 还有请来的江铸就,被问到三盘结束后棋界认为能让几子,竟然说让不动。

a***m
发帖数: 5037
7
这个属于 online/continual learning 。
阿尔法狗目前还不具备

【在 b***y 的大作中提到】
: 是你在扯吧,比赛中怎么不能学习?
o*****p
发帖数: 2977
8
而且学也学不会。因为一盘棋的权重太小了。Alphago是几千万盘训练出来的。贸然改
变权重的话,后果不可测,几乎肯定会变差。

【在 a***m 的大作中提到】
: 这个属于 online/continual learning 。
: 阿尔法狗目前还不具备

a***m
发帖数: 5037
9
阿狗工程师表示有兴趣往这个方向努力下

【在 o*****p 的大作中提到】
: 而且学也学不会。因为一盘棋的权重太小了。Alphago是几千万盘训练出来的。贸然改
: 变权重的话,后果不可测,几乎肯定会变差。

b***y
发帖数: 14281
10
“比赛中”是指的一盘之中,还是一盘与另一盘之间?后者完全是可以学习的。当然比
重可能是比较小,但如果是具有针对性的学习说不定还是有用的。虽然狗狗自己声称没
有,但这只能姑且一听。

【在 a***m 的大作中提到】
: 这个属于 online/continual learning 。
: 阿尔法狗目前还不具备

相关主题
AlphaGo is not the solution to AI大家对Alphago的胜率理解有误
阿法狗下围棋离人类还差的远技术贴(懂围棋的请进)
狗要超时?猜一下几个AlphaGo崩了的原因
进入Go版参与讨论
o*****p
发帖数: 2977
11
深度学习没那么容易有针对性的学习。你得制造大量有针对性的数据去让计算机学习
。但这种复杂盘面,必须是高手才造得出来,象翻悔就多少盘也没试出来。写程序的人
都是业余棋手,水平肯定更低,所以不容易。

【在 b***y 的大作中提到】
: “比赛中”是指的一盘之中,还是一盘与另一盘之间?后者完全是可以学习的。当然比
: 重可能是比较小,但如果是具有针对性的学习说不定还是有用的。虽然狗狗自己声称没
: 有,但这只能姑且一听。

l**a
发帖数: 94
12
不过文章实在跟nature关系不大,有点店大欺人做广告的嫌疑
还是纯CS的杂志比较好。
其实大概意思也很好解释,所谓学习就是训练策略/估值网络的参数。
用棋谱或者是自己产生的棋谱(左右互搏)
相当于总结经验,这是所谓智能的部分。
MCT是行棋需要用的,当然左右互搏训练也需要用到就是。
相当于应经验产生一个比较小的树形空间去搜索。
这个搜索跟智能没什么太大的关系,就是个投票统计。

【在 h***n 的大作中提到】
: 匪夷所思的是,国内各个媒体评论请的专家,没一个对阿发狗的原理说的靠点谱的,
: nature的论文就在那,山寨狗也在GitHub了,真心无语。
: 还有请来的江铸就,被问到三盘结束后棋界认为能让几子,竟然说让不动。

l**a
发帖数: 94
13
不过文章实在跟nature关系不大,有点店大欺人做广告的嫌疑
还是纯CS的杂志比较好。
其实大概意思也很好解释,所谓学习就是训练策略/估值网络的参数。
用棋谱或者是自己产生的棋谱(左右互搏)
相当于总结经验,这是所谓智能的部分。
MCT是行棋需要用的,当然左右互搏训练也需要用到就是。
相当于应经验产生一个比较小的树形空间去搜索。
这个搜索跟智能没什么太大的关系,就是个投票统计。

【在 h***n 的大作中提到】
: 匪夷所思的是,国内各个媒体评论请的专家,没一个对阿发狗的原理说的靠点谱的,
: nature的论文就在那,山寨狗也在GitHub了,真心无语。
: 还有请来的江铸就,被问到三盘结束后棋界认为能让几子,竟然说让不动。

b***y
发帖数: 14281
14
不管怎么说两盘之间绝对是可以学习的。

【在 o*****p 的大作中提到】
: 深度学习没那么容易有针对性的学习。你得制造大量有针对性的数据去让计算机学习
: 。但这种复杂盘面,必须是高手才造得出来,象翻悔就多少盘也没试出来。写程序的人
: 都是业余棋手,水平肯定更低,所以不容易。

I******n
发帖数: 5952
15
这一两盘棋对阿狗的学习没啥用,权重太低了

【在 b***y 的大作中提到】
: 不管怎么说两盘之间绝对是可以学习的。
o*****p
发帖数: 2977
16
按照人类的正常“学习”的定义:这盘出了这个错误,以后大部分有相似的情况都会
警醒,那么答案是:它绝对没能力在两盘之间学习。

【在 b***y 的大作中提到】
: 不管怎么说两盘之间绝对是可以学习的。
b***y
发帖数: 14281
17
那是你自己的想象。实际上这取决于deepmind算法的具体细节。deepmind从来没有说
过每次学习的权重都是一样的。

【在 o*****p 的大作中提到】
: 按照人类的正常“学习”的定义:这盘出了这个错误,以后大部分有相似的情况都会
: 警醒,那么答案是:它绝对没能力在两盘之间学习。

a***m
发帖数: 5037
18
我在nature 之前就在其他期刊读到过他们的工作
不过那篇文章没讲和 MCTS 结合 只讲了DeepLearning 部分

【在 l**a 的大作中提到】
: 不过文章实在跟nature关系不大,有点店大欺人做广告的嫌疑
: 还是纯CS的杂志比较好。
: 其实大概意思也很好解释,所谓学习就是训练策略/估值网络的参数。
: 用棋谱或者是自己产生的棋谱(左右互搏)
: 相当于总结经验,这是所谓智能的部分。
: MCT是行棋需要用的,当然左右互搏训练也需要用到就是。
: 相当于应经验产生一个比较小的树形空间去搜索。
: 这个搜索跟智能没什么太大的关系,就是个投票统计。

o*****p
发帖数: 2977
19
看来你对神经网络一点谱都没有。别发表意见了。你是错的。不骗你。

【在 b***y 的大作中提到】
: 那是你自己的想象。实际上这取决于deepmind算法的具体细节。deepmind从来没有说
: 过每次学习的权重都是一样的。

l*****z
发帖数: 3022
20
其实一盘棋可以学多次吧,学一次各个系数就改变一点点,但是重复学习一百万次对系
数的影响就比较大了,当然这样会over fitting,那是另外一个问题了。这就跟小时候
背课文一样,反复多背些次才能记得住

【在 o*****p 的大作中提到】
: 看来你对神经网络一点谱都没有。别发表意见了。你是错的。不骗你。
相关主题
蒙特卡罗是不是有天生缺陷?阿发狗片面追求胜率
阿尔法最大的困难还是局面评估哈萨比斯又给出新消息
大家都在说狗没算到那一招阿狗的局部计算力问题
进入Go版参与讨论
t******l
发帖数: 10908
21
over-fitting 是不是就好比推娃背课文推太狠,结果把娃给推残了。。。

【在 l*****z 的大作中提到】
: 其实一盘棋可以学多次吧,学一次各个系数就改变一点点,但是重复学习一百万次对系
: 数的影响就比较大了,当然这样会over fitting,那是另外一个问题了。这就跟小时候
: 背课文一样,反复多背些次才能记得住

s******n
发帖数: 6806
22
对这种棋权重加大不一定是好事,一方面,本来这种比赛选手就太紧张,发挥并不好,
没到自己100%的水平。另一方面,如果加权重,可能会从数据中看出选手的情绪心理这
些问题,狗有可能会模仿,对于纯理性判断可能会造成较大干扰,而且各个棋手情绪心
理也不一样,要模仿也不能模仿一个人的。
l*****z
发帖数: 3022
23
最好实时监控对手的血压心率,作为指标输入神经网络训练,那就强了

【在 s******n 的大作中提到】
: 对这种棋权重加大不一定是好事,一方面,本来这种比赛选手就太紧张,发挥并不好,
: 没到自己100%的水平。另一方面,如果加权重,可能会从数据中看出选手的情绪心理这
: 些问题,狗有可能会模仿,对于纯理性判断可能会造成较大干扰,而且各个棋手情绪心
: 理也不一样,要模仿也不能模仿一个人的。

I******n
发帖数: 5952
24
overfitting啥后果?不容易converge?

【在 t******l 的大作中提到】
: over-fitting 是不是就好比推娃背课文推太狠,结果把娃给推残了。。。
l*****z
发帖数: 3022
25
不是不能converge,是converge到过分优化到某一种情况,新情况出来时无法
generalization

【在 I******n 的大作中提到】
: overfitting啥后果?不容易converge?
s******n
发帖数: 6806
26
overfitting 就会只适用于一类情况,而且是历史数据中的情况,不能推广到其他情况
,别人变招之后就蒙。这种问题很难修正,只能是权衡利弊,想精确就会有
overfitting,想模型通用就会少了准确度。
不太懂围棋,但看各位和职业的讲解,说狗大局观好,局部计算反而相对弱。可能就是
程序员为了避免overfitting,局部计算稍弱。

【在 I******n 的大作中提到】
: overfitting啥后果?不容易converge?
1 (共1页)
进入Go版参与讨论
相关主题
哈萨比斯又给出新消息从第四盘棋看狗狗的弱点
阿狗的局部计算力问题AlphaGo is not the solution to AI
金明完9段点评AlphaGo: 缺点明显阿法狗下围棋离人类还差的远
写过程序的都知道狗要超时?
Facebook’s AI tech mimics how humans learn大家对Alphago的胜率理解有误
阿法狗生怕人类还不够绝望技术贴(懂围棋的请进)
神经网络的结构决定了他的极限猜一下几个AlphaGo崩了的原因
原来阿尔法下的是5秒版的ZEN蒙特卡罗是不是有天生缺陷?
相关话题的讨论汇总
话题: 学习话题: 锵锵话题: 权重话题: 系主任