d*****n 发帖数: 754 | 1 棋手和谷歌的目的是不同的。棋手追求取胜,而谷歌显然有更深远的商业目的。
谷歌的软件赢了,但出现了几个极其愚蠢的失误。这些失误不止第四盘,其实第一盘的
左下也有。这些失误不影响最后的胜负,但对人工智能的应用却有重大影响。
比如用于医疗诊断。机器大部分时间都比医生准确一些,但有时偶尔会给患者开出毒药
。那么大家就很难放心让这种机器取代医生。
谷歌在没有十足把握解决这个问题以前是不会再搞人机大战这种商业活动的。至于测试
算法,私下进行就够了。 |
r****y 发帖数: 26819 | 2 结论没啥问题,理由相当拧巴。
下棋就算出点错,没人笑话,跟实际应用相比也没啥后果,私下测试还是公开比赛,区别
就是奖金而已,更何况完胜人类,奖金根本没丢。
google没兴趣推围棋,因为挑战性不大了,推其它的应用利润更高,更好玩。
但是只要是学习,就没有不出错的,学习就是从犯错误开始的,人类医生开药也是一样。
这个问题没法避免。
【在 d*****n 的大作中提到】 : 棋手和谷歌的目的是不同的。棋手追求取胜,而谷歌显然有更深远的商业目的。 : 谷歌的软件赢了,但出现了几个极其愚蠢的失误。这些失误不止第四盘,其实第一盘的 : 左下也有。这些失误不影响最后的胜负,但对人工智能的应用却有重大影响。 : 比如用于医疗诊断。机器大部分时间都比医生准确一些,但有时偶尔会给患者开出毒药 : 。那么大家就很难放心让这种机器取代医生。 : 谷歌在没有十足把握解决这个问题以前是不会再搞人机大战这种商业活动的。至于测试 : 算法,私下进行就够了。
|
m*****n 发帖数: 3644 | 3 同意。就像皇帝经过御用老师3个月调教,学会了种地,然后和一个60岁老农比赛种地
,并赢了老农民。老农民输了后说我知道你哪儿不对。明年我会比你种的更好,咱们再
来PK。但明年皇帝不玩了,选妃子去了。。。。 |
d*****n 发帖数: 754 | 4 不同意。机器犯的错误实在太蠢。人类是不会犯那样的错误的。
区别
样。
【在 r****y 的大作中提到】 : 结论没啥问题,理由相当拧巴。 : 下棋就算出点错,没人笑话,跟实际应用相比也没啥后果,私下测试还是公开比赛,区别 : 就是奖金而已,更何况完胜人类,奖金根本没丢。 : google没兴趣推围棋,因为挑战性不大了,推其它的应用利润更高,更好玩。 : 但是只要是学习,就没有不出错的,学习就是从犯错误开始的,人类医生开药也是一样。 : 这个问题没法避免。
|
r****y 发帖数: 26819 | 5 哪个人类没犯过那样的错误?你指耶稣,还是孔子?
让一个跟alphago学棋时间差不多的人来跟李世石下,看看能犯怎样的错误,能赢李几
盘,如何?
拿比人类天才还高的标准来要求一个人工智能程序,是为了要显示什么?
【在 d*****n 的大作中提到】 : 不同意。机器犯的错误实在太蠢。人类是不会犯那样的错误的。 : : 区别 : 样。
|
d*****n 发帖数: 754 | 6 谷歌的机器犯的错误是非常低级的。不要说人类的天才,就是刚入门的爱好者也不会犯
。而且机器还不认为那是错误,还会再犯。这样的产品可靠性就成问题。这种东西只能
玩游戏用
【在 r****y 的大作中提到】 : 哪个人类没犯过那样的错误?你指耶稣,还是孔子? : 让一个跟alphago学棋时间差不多的人来跟李世石下,看看能犯怎样的错误,能赢李几 : 盘,如何? : 拿比人类天才还高的标准来要求一个人工智能程序,是为了要显示什么?
|
m*****n 发帖数: 3644 | 7 你在用人的错误level判断机器的错误level。要一个小学生去计算5+5,他再怎么错,也
不会写出5+5=500005之类的错误。但是如果机器可能:5.0000+50000=50005。这种bug
很容易纠正,和机器是否愚蠢无关。
【在 d*****n 的大作中提到】 : 不同意。机器犯的错误实在太蠢。人类是不会犯那样的错误的。 : : 区别 : 样。
|
t******e 发帖数: 2504 | 8 楼主这个看法以前很多,记得唐奕还挑了阿狗战樊麾的一堆错误, 而且在解说时,当
常昊等认为人类可以一战,唐女将还说你们认为我(去挑战)怎么样,当然,常古俞没
理她。
高手们现在直接说阿狗不行的几乎没有了,但业余爱好者对阿狗不屑一顾的反而比较多
, 很有意思的现象。 |
l******t 发帖数: 55733 | |
r****y 发帖数: 26819 | 10 大概因为高手们评论起来动机比较单纯,为了技术长进而更看重狗的长处,而业余爱好者
反正只看得懂低级错误,要的是“这一手还不如我去下呢”这种快感,评论充满各种寂
寞。
【在 t******e 的大作中提到】 : 楼主这个看法以前很多,记得唐奕还挑了阿狗战樊麾的一堆错误, 而且在解说时,当 : 常昊等认为人类可以一战,唐女将还说你们认为我(去挑战)怎么样,当然,常古俞没 : 理她。 : 高手们现在直接说阿狗不行的几乎没有了,但业余爱好者对阿狗不屑一顾的反而比较多 : , 很有意思的现象。
|
|
|
r****y 发帖数: 26819 | 11 呵呵。
【在 d*****n 的大作中提到】 : 谷歌的机器犯的错误是非常低级的。不要说人类的天才,就是刚入门的爱好者也不会犯 : 。而且机器还不认为那是错误,还会再犯。这样的产品可靠性就成问题。这种东西只能 : 玩游戏用
|
Y***C 发帖数: 249 | 12 我朋友在保险公司工作,人犯的低级错误太多了,最典型的就是倒车是把自己的亲人给
压死的,因为存在能不能赔得争议。需要一个一个看,他说,各种奇葩的无法想象的错
误。
其实就是心理上的因素,如果从统计上看,AI的安全性绝对超过人类,但人类犯一百个
一样的错误也没关系,机器出一起就会被全世界讨论。
【在 l******t 的大作中提到】 : tesla刚展现了愚蠢的AI bug的危害性
|
s***u 发帖数: 80 | 13 不能同意你更多
【在 Y***C 的大作中提到】 : 我朋友在保险公司工作,人犯的低级错误太多了,最典型的就是倒车是把自己的亲人给 : 压死的,因为存在能不能赔得争议。需要一个一个看,他说,各种奇葩的无法想象的错 : 误。 : 其实就是心理上的因素,如果从统计上看,AI的安全性绝对超过人类,但人类犯一百个 : 一样的错误也没关系,机器出一起就会被全世界讨论。
|
B*G 发帖数: 13438 | 14 结果没多久常昊被唐奕屠龙了。
【在 t******e 的大作中提到】 : 楼主这个看法以前很多,记得唐奕还挑了阿狗战樊麾的一堆错误, 而且在解说时,当 : 常昊等认为人类可以一战,唐女将还说你们认为我(去挑战)怎么样,当然,常古俞没 : 理她。 : 高手们现在直接说阿狗不行的几乎没有了,但业余爱好者对阿狗不屑一顾的反而比较多 : , 很有意思的现象。
|
b*******8 发帖数: 37364 | 15 所以闭门高挂免战牌了。不然再天天出来应战,没几天就被罗洗河弟子盘盘吊打18K疯
狗,颜面尽失。
【在 d*****n 的大作中提到】 : 谷歌的机器犯的错误是非常低级的。不要说人类的天才,就是刚入门的爱好者也不会犯 : 。而且机器还不认为那是错误,还会再犯。这样的产品可靠性就成问题。这种东西只能 : 玩游戏用
|
b*******8 发帖数: 37364 | 16 这个例子恰恰说明了经过漫长进化选择的人类大脑,有很强的稳定性和自适应性。Bug
很容易纠正,但发现之前已经造成很大损失,而且可能AI自己很难自主发现。
bug
【在 m*****n 的大作中提到】 : 你在用人的错误level判断机器的错误level。要一个小学生去计算5+5,他再怎么错,也 : 不会写出5+5=500005之类的错误。但是如果机器可能:5.0000+50000=50005。这种bug : 很容易纠正,和机器是否愚蠢无关。
|
m*****n 发帖数: 3644 | 17 未必。有个女司机开车把自己夹死了。进地下停车场,半截刷卡时隔得远了点,打开车
门,半截身子探出去,脚还在油门上。不小心踩了一脚,然后自己被汽车和刷卡墩子夹
死了。。。
只能说,计算机和人类的错误都有很低级的,表现方式不同而已。按最后的结果看,成
熟的计算机程序的错误概率小。Alphago如此,Telsa也是如此。
Bug
【在 b*******8 的大作中提到】 : 这个例子恰恰说明了经过漫长进化选择的人类大脑,有很强的稳定性和自适应性。Bug : 很容易纠正,但发现之前已经造成很大损失,而且可能AI自己很难自主发现。 : : bug
|
l******t 发帖数: 55733 | 18 当然不对。人有判断比如躯体自伤会毁灭自己等等。都是不能突破和有最高优先级的。
现在的ai完全没有这方面的判断。离生命系统差远了。
【在 m*****n 的大作中提到】 : 未必。有个女司机开车把自己夹死了。进地下停车场,半截刷卡时隔得远了点,打开车 : 门,半截身子探出去,脚还在油门上。不小心踩了一脚,然后自己被汽车和刷卡墩子夹 : 死了。。。 : 只能说,计算机和人类的错误都有很低级的,表现方式不同而已。按最后的结果看,成 : 熟的计算机程序的错误概率小。Alphago如此,Telsa也是如此。 : : Bug
|
m*****n 发帖数: 3644 | 19 那女司机怎么把自己夹死的。。。。
【在 l******t 的大作中提到】 : 当然不对。人有判断比如躯体自伤会毁灭自己等等。都是不能突破和有最高优先级的。 : 现在的ai完全没有这方面的判断。离生命系统差远了。
|
s***u 发帖数: 80 | 20 人哪有你说的那么高级,抽烟喝酒消毒比比皆是
开车
子夹
,成
【在 l******t 的大作中提到】 : 当然不对。人有判断比如躯体自伤会毁灭自己等等。都是不能突破和有最高优先级的。 : 现在的ai完全没有这方面的判断。离生命系统差远了。
|
l******t 发帖数: 55733 | 21 这都是进化没cover的
【在 s***u 的大作中提到】 : 人哪有你说的那么高级,抽烟喝酒消毒比比皆是 : : 开车 : 子夹 : ,成
|
b*******8 发帖数: 37364 | 22 别人看女司机行为立即知道愚蠢 收进自己经验 这甚至是下意识不用费脑力
一台电脑犯错 别的电脑没有能力立即接受教训 避免类似
★ 发自iPhone App: ChineseWeb 11
【在 m*****n 的大作中提到】 : 未必。有个女司机开车把自己夹死了。进地下停车场,半截刷卡时隔得远了点,打开车 : 门,半截身子探出去,脚还在油门上。不小心踩了一脚,然后自己被汽车和刷卡墩子夹 : 死了。。。 : 只能说,计算机和人类的错误都有很低级的,表现方式不同而已。按最后的结果看,成 : 熟的计算机程序的错误概率小。Alphago如此,Telsa也是如此。 : : Bug
|