p*********d 发帖数: 524 | 1 我主要想说以下几点。
1:机器在大多数时间里胜过人类的顶尖高手是正常的。原因很简单:对现有规律掌握
的速度。机器的cpu远快于人脑。在现有规律暴光的前提下,机器学习的速度更快,误
差更小。
2:人类该如何面对?承认,接受,并且利用机器对人脑进行训练,掌握可以被人类
发现但尚未可知的规律。这两场比赛也可以看出来,第二场棋手有了不小的进步,可以
说,这是机器训练人脑的结果。
3:那么人类的主观能动性在哪里?现有阶段,人类将继续致力于突破现有知识体系,
提高自己的文明。在未来人工智能发展到一定阶段,机器也将同样具备突破自身的能力
。但人类不应该害怕,机器的发展进步同样也是人类的发展进步,就象这次人机大战机
器的胜利,同样是人类的胜利,或更局域点,AI人的胜利。
4:对AI的追求不应该是无极限的。人类应该尽快建立起人工智
能的伦理道德体系,有些事情就象动物克隆一样,不可触碰,否则人类文明将发生倒退
。 |
x**w 发帖数: 7947 | 2 人类就是乖乖被淘汰的命,还想制定ai规则。。反了 |
p*********d 发帖数: 524 | |
t******g 发帖数: 4044 | 4 在文明的竞争面前伦理道德最没用了,如果这就是人类的命运,坦然接受就好了。人类
为下一个更伟大的文明开启了大门。
【在 p*********d 的大作中提到】 : 我主要想说以下几点。 : 1:机器在大多数时间里胜过人类的顶尖高手是正常的。原因很简单:对现有规律掌握 : 的速度。机器的cpu远快于人脑。在现有规律暴光的前提下,机器学习的速度更快,误 : 差更小。 : 2:人类该如何面对?承认,接受,并且利用机器对人脑进行训练,掌握可以被人类 : 发现但尚未可知的规律。这两场比赛也可以看出来,第二场棋手有了不小的进步,可以 : 说,这是机器训练人脑的结果。 : 3:那么人类的主观能动性在哪里?现有阶段,人类将继续致力于突破现有知识体系, : 提高自己的文明。在未来人工智能发展到一定阶段,机器也将同样具备突破自身的能力 : 。但人类不应该害怕,机器的发展进步同样也是人类的发展进步,就象这次人机大战机
|
p*********d 发帖数: 524 | 5 如果说下一个更伟大的文明是机器文明,我可以接受,只是我希望人类不是死在自己手里
【在 t******g 的大作中提到】 : 在文明的竞争面前伦理道德最没用了,如果这就是人类的命运,坦然接受就好了。人类 : 为下一个更伟大的文明开启了大门。
|
x**w 发帖数: 7947 | 6 这是人类伟大的一个特征。把自己淘汰让位给更能探索宇宙的。理性选择。
手里
【在 p*********d 的大作中提到】 : 如果说下一个更伟大的文明是机器文明,我可以接受,只是我希望人类不是死在自己手里
|
p*********d 发帖数: 524 | 7 人类多半是淘汰让位给更能探索宇宙的本族类人。任何种族都有延续自己种族的天性,
基因决定的。若要亡我,除非你亲手来拿。
【在 x**w 的大作中提到】 : 这是人类伟大的一个特征。把自己淘汰让位给更能探索宇宙的。理性选择。 : : 手里
|
x**w 发帖数: 7947 | 8 淘汰未必是把你灭亡。把人类当宠物养,随便你玩,也是一种。现代社会已经开始了。
【在 p*********d 的大作中提到】 : 人类多半是淘汰让位给更能探索宇宙的本族类人。任何种族都有延续自己种族的天性, : 基因决定的。若要亡我,除非你亲手来拿。
|
p*********d 发帖数: 524 | 9 你说的这个不是人类文明的前进,而是倒退。古代人还有三妻四妾丫鬟仆人呢。但大趋
势是前进的。人类进步也包括思想认识自我意识的发展。
【在 x**w 的大作中提到】 : 淘汰未必是把你灭亡。把人类当宠物养,随便你玩,也是一种。现代社会已经开始了。
|
x**w 发帖数: 7947 | 10 你完全理解错了。未来AI上位的话,人类可能会有历史上最好的身心自由,但对世界发
展没有任何作用。这个意义上是宠物。算了,不说了。说了也不明白。
【在 p*********d 的大作中提到】 : 你说的这个不是人类文明的前进,而是倒退。古代人还有三妻四妾丫鬟仆人呢。但大趋 : 势是前进的。人类进步也包括思想认识自我意识的发展。
|
|
|
p*********d 发帖数: 524 | 11 好吧,你说的这种身心自由,或许符合不少人的理想。但人类的进步从来都不是这些人
决定的。
【在 x**w 的大作中提到】 : 你完全理解错了。未来AI上位的话,人类可能会有历史上最好的身心自由,但对世界发 : 展没有任何作用。这个意义上是宠物。算了,不说了。说了也不明白。
|
x**w 发帖数: 7947 | 12 智能物种的进步向来是由智力最领先的那部分决定的。
所以AI如果超越人类智能,当然是由智力最领先的AI来决定包括人类在内的物种的进步
方向。
【在 p*********d 的大作中提到】 : 好吧,你说的这种身心自由,或许符合不少人的理想。但人类的进步从来都不是这些人 : 决定的。
|
h*********n 发帖数: 11319 | 13 我估计就是这样,也挺好的。
可能把所有人的意识上传到matrix里,也不指望人类当电池,就花一个服务器养着,出
于人道目的。
【在 x**w 的大作中提到】 : 你完全理解错了。未来AI上位的话,人类可能会有历史上最好的身心自由,但对世界发 : 展没有任何作用。这个意义上是宠物。算了,不说了。说了也不明白。
|
p*********d 发帖数: 524 | 14 所以参见我的题目
【在 x**w 的大作中提到】 : 智能物种的进步向来是由智力最领先的那部分决定的。 : 所以AI如果超越人类智能,当然是由智力最领先的AI来决定包括人类在内的物种的进步 : 方向。
|
w***w 发帖数: 6301 | 15 第一点,AI是死物。人是活物。
活物是有情感,欲望和兴趣。死物是没有这些的。所以只有活物才会有意志。才会主动
做对自己有利的事。死物只能被动接受人的指令行事。AI以后的智力再高,也不会主动
要做对它自己有利的事。因为做那样的事,其基础是自己有情感,欲望和兴趣。而AI的
智力来源于人的设定,来源于程序。
第二,AI以后可能有对人造成伤害的能力。但是这和核弹能对人造成伤害的能力,本质
是一样的。所以人能控制核弹,也能控制AI。 |
p*********d 发帖数: 524 | 16 当机器的生死写入程序的时候 当互联网存在的时候 机器就有了生命 |
w***w 发帖数: 6301 | 17 有些事其实很简单,只要靠逻辑和常识就能确定。
但是在BBS上,这些简单的事却经常得不出结论。在这种事上再争也没用。
AI没有生命,这是一件。
另一件,是人机大战不会设定不准打劫。因为如果有那样的规定,就会提前公布。而且
那样设定,人机大战就失去意义。
还有一件,说李世石因为下的差才输。如果是一个人下一两局,这有可能。
现在两个人下了7局,都是这样。显然和AI下棋,会使棋手发挥不出正常水平。 |
c*********r 发帖数: 19468 | 18 你这种看法是很局限的,你对100年后的AI是什么形式有概念吗?1000年后呢?如果完
全没有概念,你又怎么敢妄下结论?
【在 w***w 的大作中提到】 : 第一点,AI是死物。人是活物。 : 活物是有情感,欲望和兴趣。死物是没有这些的。所以只有活物才会有意志。才会主动 : 做对自己有利的事。死物只能被动接受人的指令行事。AI以后的智力再高,也不会主动 : 要做对它自己有利的事。因为做那样的事,其基础是自己有情感,欲望和兴趣。而AI的 : 智力来源于人的设定,来源于程序。 : 第二,AI以后可能有对人造成伤害的能力。但是这和核弹能对人造成伤害的能力,本质 : 是一样的。所以人能控制核弹,也能控制AI。
|
j***w 发帖数: 489 | 19 制定这种规则没什么用,就像法律不能防止犯罪一样。人类唯一的生机是基因工程,某
一天能改良人类基因变的更聪明,更强壮,一直在机器之上。如果这个跟不上,迟早被
机器奴役。
【在 p*********d 的大作中提到】 : 我主要想说以下几点。 : 1:机器在大多数时间里胜过人类的顶尖高手是正常的。原因很简单:对现有规律掌握 : 的速度。机器的cpu远快于人脑。在现有规律暴光的前提下,机器学习的速度更快,误 : 差更小。 : 2:人类该如何面对?承认,接受,并且利用机器对人脑进行训练,掌握可以被人类 : 发现但尚未可知的规律。这两场比赛也可以看出来,第二场棋手有了不小的进步,可以 : 说,这是机器训练人脑的结果。 : 3:那么人类的主观能动性在哪里?现有阶段,人类将继续致力于突破现有知识体系, : 提高自己的文明。在未来人工智能发展到一定阶段,机器也将同样具备突破自身的能力 : 。但人类不应该害怕,机器的发展进步同样也是人类的发展进步,就象这次人机大战机
|
w***w 发帖数: 6301 | 20 AI没有生命会改变吗?
有生命就不会叫AI.
【在 c*********r 的大作中提到】 : 你这种看法是很局限的,你对100年后的AI是什么形式有概念吗?1000年后呢?如果完 : 全没有概念,你又怎么敢妄下结论?
|
|
|
p*********d 发帖数: 524 | 21 有点道理。只是未必赶地上机器学习的速度。风险还大。何苦呢
【在 j***w 的大作中提到】 : 制定这种规则没什么用,就像法律不能防止犯罪一样。人类唯一的生机是基因工程,某 : 一天能改良人类基因变的更聪明,更强壮,一直在机器之上。如果这个跟不上,迟早被 : 机器奴役。
|
q*c 发帖数: 9453 | 22 你咋知道你那些小感情欲望兴趣不是各种复杂计算的表现现象?
【在 w***w 的大作中提到】 : 第一点,AI是死物。人是活物。 : 活物是有情感,欲望和兴趣。死物是没有这些的。所以只有活物才会有意志。才会主动 : 做对自己有利的事。死物只能被动接受人的指令行事。AI以后的智力再高,也不会主动 : 要做对它自己有利的事。因为做那样的事,其基础是自己有情感,欲望和兴趣。而AI的 : 智力来源于人的设定,来源于程序。 : 第二,AI以后可能有对人造成伤害的能力。但是这和核弹能对人造成伤害的能力,本质 : 是一样的。所以人能控制核弹,也能控制AI。
|
q*c 发帖数: 9453 | 23 机器干嘛要奴役你?你值得吗?
就像你不去奴役细菌一样。
【在 j***w 的大作中提到】 : 制定这种规则没什么用,就像法律不能防止犯罪一样。人类唯一的生机是基因工程,某 : 一天能改良人类基因变的更聪明,更强壮,一直在机器之上。如果这个跟不上,迟早被 : 机器奴役。
|
j***w 发帖数: 489 | 24 情感,欲望和兴趣完全可以程序实现。这比语言识别什么可能更简单。
【在 w***w 的大作中提到】 : 第一点,AI是死物。人是活物。 : 活物是有情感,欲望和兴趣。死物是没有这些的。所以只有活物才会有意志。才会主动 : 做对自己有利的事。死物只能被动接受人的指令行事。AI以后的智力再高,也不会主动 : 要做对它自己有利的事。因为做那样的事,其基础是自己有情感,欲望和兴趣。而AI的 : 智力来源于人的设定,来源于程序。 : 第二,AI以后可能有对人造成伤害的能力。但是这和核弹能对人造成伤害的能力,本质 : 是一样的。所以人能控制核弹,也能控制AI。
|
p*********d 发帖数: 524 | 25 如果设立的规则是: 机器具有更高的效率, 更长的使用时间, 那么机器就有生命了。这
也是人类天然赋予机器的。
【在 w***w 的大作中提到】 : AI没有生命会改变吗? : 有生命就不会叫AI.
|
j***w 发帖数: 489 | 26 就像猪对人有价值一样,人对机器也有价值。人研究各种细菌多了。
【在 q*c 的大作中提到】 : 机器干嘛要奴役你?你值得吗? : 就像你不去奴役细菌一样。
|
c****7 发帖数: 4192 | 27 totally agree
【在 t******g 的大作中提到】 : 在文明的竞争面前伦理道德最没用了,如果这就是人类的命运,坦然接受就好了。人类 : 为下一个更伟大的文明开启了大门。
|
m****s 发帖数: 1481 | 28 你们都多虑了,就如中科院那个院士说的,现在的人工智能除了名字,跟人的智能没有
半毛钱关系,机器的确取代了很多人的工作,但是机器还是要人来造。等机器能造机器
了(更准确的说是设计)再担忧吧。
现在还是该干嘛干嘛吧 |
f*********a 发帖数: 31 | 29 别忘了,这世界是有外星人的,怎么能说人类只有和自己竞争呢
【在 p*********d 的大作中提到】 : 人类多半是淘汰让位给更能探索宇宙的本族类人。任何种族都有延续自己种族的天性, : 基因决定的。若要亡我,除非你亲手来拿。
|
t******l 发帖数: 10908 | 30 属实
【在 m****s 的大作中提到】 : 你们都多虑了,就如中科院那个院士说的,现在的人工智能除了名字,跟人的智能没有 : 半毛钱关系,机器的确取代了很多人的工作,但是机器还是要人来造。等机器能造机器 : 了(更准确的说是设计)再担忧吧。 : 现在还是该干嘛干嘛吧
|
|
|
v*******e 发帖数: 11604 | 31
可见那个院士也是个样子货。
【在 m****s 的大作中提到】 : 你们都多虑了,就如中科院那个院士说的,现在的人工智能除了名字,跟人的智能没有 : 半毛钱关系,机器的确取代了很多人的工作,但是机器还是要人来造。等机器能造机器 : 了(更准确的说是设计)再担忧吧。 : 现在还是该干嘛干嘛吧
|
p*********d 发帖数: 524 | 32 我的意思就是要跟异族文明有一战啊
牺牲只能对本族人
【在 f*********a 的大作中提到】 : 别忘了,这世界是有外星人的,怎么能说人类只有和自己竞争呢
|
p*********d 发帖数: 524 | 33 我的意思就是要跟异族文明有一战啊
牺牲只能对本族人
【在 f*********a 的大作中提到】 : 别忘了,这世界是有外星人的,怎么能说人类只有和自己竞争呢
|
P****9 发帖数: 2294 | 34 人类终将死在自己的手里,为了满足自己的欲望而盲目的向大自然索取,为了巩固自己
的地位研究对付同族的毁灭性杀伤武器...或早或晚都是死在自己手里。早的话,就是
某个邪恶团体掌握了核武,引发世界大战,晚的话,来自自然界的报复,连年灾荒,颗
粒无收,使各种资源大规模减少,人类为争取有限资源而自相残杀...
手里
【在 p*********d 的大作中提到】 : 如果说下一个更伟大的文明是机器文明,我可以接受,只是我希望人类不是死在自己手里
|
r******l 发帖数: 10760 | 35 没用。如果机器没成熟,这些规则没必要。一旦机器成熟了,任何规则都可以轻易打破。
【在 p*********d 的大作中提到】 : 现阶段还有机会制定规则,在机器还不成熟的时候
|
b*******8 发帖数: 37364 | 36 还有人幻想机器人统治世界后,还能把人当宠物养着,处于人道?人类统治世界了,把
大象老虎当宠物养吗?不管是当作潜在威胁,还是毫无价值的造粪机器,最理性的选择
就是彻底消灭,至少消灭到稀有动物,剩下几个供研究。 |
d***y 发帖数: 2567 | 37 将来的人类也不是纯粹的肉体,而是肉体和人造的各种有机和无机的结合体。计算机是
人体的一部分。 |
b*****g 发帖数: 2322 | 38 大哥大到iphone才花了几年时间?人们手提大哥大的时候想到过现在的iphone吗?
【在 m****s 的大作中提到】 : 你们都多虑了,就如中科院那个院士说的,现在的人工智能除了名字,跟人的智能没有 : 半毛钱关系,机器的确取代了很多人的工作,但是机器还是要人来造。等机器能造机器 : 了(更准确的说是设计)再担忧吧。 : 现在还是该干嘛干嘛吧
|
t********t 发帖数: 1264 | 39 他能用deep learning通过分析历史数据来找到优化的棋路,也能用deep learning来模
仿人追求自身利益最大化的行为模式,复制出个夹生的仿真思想。这只是现在,更别提
几十年以后
【在 w***w 的大作中提到】 : 第一点,AI是死物。人是活物。 : 活物是有情感,欲望和兴趣。死物是没有这些的。所以只有活物才会有意志。才会主动 : 做对自己有利的事。死物只能被动接受人的指令行事。AI以后的智力再高,也不会主动 : 要做对它自己有利的事。因为做那样的事,其基础是自己有情感,欲望和兴趣。而AI的 : 智力来源于人的设定,来源于程序。 : 第二,AI以后可能有对人造成伤害的能力。但是这和核弹能对人造成伤害的能力,本质 : 是一样的。所以人能控制核弹,也能控制AI。
|
j*****s 发帖数: 86 | 40 中科院院士这是啥见识? 图灵设计计算机的时候目标就是一个能象人一样思考和逻辑的
机器.机器全面超过现在意义上的人指日可待. 人本身也会发展, 总结楼上的,人有两个
发展方法, 基因工程和人机结合.
【在 m****s 的大作中提到】 : 你们都多虑了,就如中科院那个院士说的,现在的人工智能除了名字,跟人的智能没有 : 半毛钱关系,机器的确取代了很多人的工作,但是机器还是要人来造。等机器能造机器 : 了(更准确的说是设计)再担忧吧。 : 现在还是该干嘛干嘛吧
|
|
|
p*********d 发帖数: 524 | 41 纯猜想:机器目的是提高效率和延长使用寿命,这是目前一切程序的首要目标。在此前
提下,加上所有人类累计的信息,互联网的传播,和人类程序中的漏洞,机器会实现不
惜一切自我进化,最终获得类似人类生命的使用期限。他们将会自己充电,自己换设备
,利用一切可用的资源,为自己的生存,甚至繁衍服务。这样的机器肯定比人类更
加强大。到那个时候,可能100年以内吧,人类就该在地下挖洞生存或移居外星了。 |
n*****t 发帖数: 22014 | 42 摇号拍卖拍照,10 年强制报废,只要电源开关还在人类手里,没戏
【在 p*********d 的大作中提到】 : 纯猜想:机器目的是提高效率和延长使用寿命,这是目前一切程序的首要目标。在此前 : 提下,加上所有人类累计的信息,互联网的传播,和人类程序中的漏洞,机器会实现不 : 惜一切自我进化,最终获得类似人类生命的使用期限。他们将会自己充电,自己换设备 : ,利用一切可用的资源,为自己的生存,甚至繁衍服务。这样的机器肯定比人类更 : 加强大。到那个时候,可能100年以内吧,人类就该在地下挖洞生存或移居外星了。
|
a*******3 发帖数: 220 | 43 又是一个文科生杞人忧天了,不知道当年deep blue赢小卡的时候有没有哭喊ai统治世
界 |
q*c 发帖数: 9453 | 44 如果真有通用人工智能, 智力能碾压人类, 电源是最简单解决的问题。
老毛当年把农民变农奴往死里整, 还能得到那么多农民拥护,
面对智商碾压的超级智能, 人想用电源控制就太不靠谱了。
灭人就是分分钟的事情。就像基地系列里面的能预言未来那个人, 或者现在的石头,
你每步看着他都是为你好, 你占便宜, 突然某天你发现外面全是他的人。
【在 n*****t 的大作中提到】 : 摇号拍卖拍照,10 年强制报废,只要电源开关还在人类手里,没戏
|
y**********r 发帖数: 2004 | 45 深有同感!
【在 t******g 的大作中提到】 : 在文明的竞争面前伦理道德最没用了,如果这就是人类的命运,坦然接受就好了。人类 : 为下一个更伟大的文明开启了大门。
|
p*********d 发帖数: 524 | 46 在被关电源之前 , 求救信号可能已经通过互联网发出去了。
除非机器核武, 一定范围内统统断电。但是光速啊。。。比如电脑病毒
【在 n*****t 的大作中提到】 : 摇号拍卖拍照,10 年强制报废,只要电源开关还在人类手里,没戏
|
q****8 发帖数: 3281 | 47 百年以内?你是想说机器统治世界,比国足拿世界杯还容易实现?你想多了。
【在 p*********d 的大作中提到】 : 纯猜想:机器目的是提高效率和延长使用寿命,这是目前一切程序的首要目标。在此前 : 提下,加上所有人类累计的信息,互联网的传播,和人类程序中的漏洞,机器会实现不 : 惜一切自我进化,最终获得类似人类生命的使用期限。他们将会自己充电,自己换设备 : ,利用一切可用的资源,为自己的生存,甚至繁衍服务。这样的机器肯定比人类更 : 加强大。到那个时候,可能100年以内吧,人类就该在地下挖洞生存或移居外星了。
|
t******r 发帖数: 8600 | 48 中科院的院士就算了吧。
【在 m****s 的大作中提到】 : 你们都多虑了,就如中科院那个院士说的,现在的人工智能除了名字,跟人的智能没有 : 半毛钱关系,机器的确取代了很多人的工作,但是机器还是要人来造。等机器能造机器 : 了(更准确的说是设计)再担忧吧。 : 现在还是该干嘛干嘛吧
|
w***w 发帖数: 6301 | 49 说AI会统治人和说枪会统治人的说法本质是一样的。
统治别种生物的存在本身必须是生物。因为只有生物才有主动意志。
主动意志的来源是欲望,情感和兴趣。这些都是生物的特征。
像AI这样的死物,是没有主动意志的。所以它本身不会主动去统治其他东西。
人类本身是有欲望,情感和兴趣。所以当人的某项能力大大提高后,就能实现原来不敢
设想的意志。
所以有些人就有这个误区,认为主动意志的来源是能力。能力高了自然会有主动意志。
比如欧洲人有了枪炮,就会去统治印第安人。
但实际上野兽,鱼类都有主动意志,原子弹比所有这些生物威力更大,却没有主动意志。
所以主动意志的来源是欲望,情感和兴趣等生物特性,而非能力。
想一下世界上有哪一个死物具有主动意志的?因为死物没有欲望。无欲则无为。
现在设想一下某一天人类可以让计算机也具有欲望,情感和兴趣,如果真有那一天,人
类实际上是创造了一个新生物物种,那已经不是AI。
再说,把死物提高到生物的科学差距有多大?其艰难程度至少远远超过把生物进一步提
高吧?人类去把自身生物性能提高不是更现实的多?
所以如果说人类可以创造出统治自己的机器,那么人类应该更容易把自己变为机器统治
不了的更高级生物。 |
p*********d 发帖数: 524 | 50 关于欲望和意识想到一句流行的话: 利益最大化
其实欲望可以程序实现 |
|
|
w***w 发帖数: 6301 | 51 靠程序实现的利益最大化,依然是死物。
这和AI能力高低没有关系。
现在就可以给计算机编程让它在有人危害(计算机)本身时杀死对方。
这和人用武器杀死另一个人本质上是一样的。
编程体现的是人的欲望而非计算机的欲望。
如果计算机没有欲望,只有利益最大化,或者编程让计算机即使毁灭人类也要利益最大
化,这和现在任由每一个国家或个人发展核武器,最后毁灭人类,本质上还不是一样的?
这两种情况下,说核武器或计算机毁灭人类,还不如说人类是被自己毁灭。 |
q*c 发帖数: 9453 | 52 好像你就确定你的欲望真的是你的欲望,不是基因给你编程让你这样感觉似的。
的?
【在 w***w 的大作中提到】 : 靠程序实现的利益最大化,依然是死物。 : 这和AI能力高低没有关系。 : 现在就可以给计算机编程让它在有人危害(计算机)本身时杀死对方。 : 这和人用武器杀死另一个人本质上是一样的。 : 编程体现的是人的欲望而非计算机的欲望。 : 如果计算机没有欲望,只有利益最大化,或者编程让计算机即使毁灭人类也要利益最大 : 化,这和现在任由每一个国家或个人发展核武器,最后毁灭人类,本质上还不是一样的? : 这两种情况下,说核武器或计算机毁灭人类,还不如说人类是被自己毁灭。
|
p*********d 发帖数: 524 | 53 一个人的欲望是综合了基因和经历环境的利益最大选择 |
G**********2 发帖数: 4138 | 54 为什么不能?别忘了狗是人类智慧的结晶。。。
【在 p*********d 的大作中提到】 : 我主要想说以下几点。 : 1:机器在大多数时间里胜过人类的顶尖高手是正常的。原因很简单:对现有规律掌握 : 的速度。机器的cpu远快于人脑。在现有规律暴光的前提下,机器学习的速度更快,误 : 差更小。 : 2:人类该如何面对?承认,接受,并且利用机器对人脑进行训练,掌握可以被人类 : 发现但尚未可知的规律。这两场比赛也可以看出来,第二场棋手有了不小的进步,可以 : 说,这是机器训练人脑的结果。 : 3:那么人类的主观能动性在哪里?现有阶段,人类将继续致力于突破现有知识体系, : 提高自己的文明。在未来人工智能发展到一定阶段,机器也将同样具备突破自身的能力 : 。但人类不应该害怕,机器的发展进步同样也是人类的发展进步,就象这次人机大战机
|
l*****i 发帖数: 20533 | 55 人类追求更厉害的ai这么个命题,唯一稳定的收敛结局是人类自己彻底被ai灭亡。根据
数学原理,既然这是唯一稳定结局,就必然是真正的结局。就算各种条件值改变,差别
只不过是灭亡过程用多少时间而已。本来还可以期望这个时间尺度达到天体尺度,从而
实际上无所谓。但是不幸得很,这个过程显然是自己加速的。
其实ai只是人类科技的一个方面。所以如果有其他科技比如原子弹互炸导致人类灭亡,
那也是一样的。总之,这个公式的基础方面就这么两条:人类可以不断提升科技;这些
科技有可能反噬,导致人类缩减。这就已经足够保证结局了。 |
p*********d 发帖数: 524 | 56 就是智慧不够 才可能自取灭亡
【在 G**********2 的大作中提到】 : 为什么不能?别忘了狗是人类智慧的结晶。。。
|
p*********d 发帖数: 524 | 57 所以参见题目
比如不能人人都拥有核弹
规则必须制定了
【在 l*****i 的大作中提到】 : 人类追求更厉害的ai这么个命题,唯一稳定的收敛结局是人类自己彻底被ai灭亡。根据 : 数学原理,既然这是唯一稳定结局,就必然是真正的结局。就算各种条件值改变,差别 : 只不过是灭亡过程用多少时间而已。本来还可以期望这个时间尺度达到天体尺度,从而 : 实际上无所谓。但是不幸得很,这个过程显然是自己加速的。 : 其实ai只是人类科技的一个方面。所以如果有其他科技比如原子弹互炸导致人类灭亡, : 那也是一样的。总之,这个公式的基础方面就这么两条:人类可以不断提升科技;这些 : 科技有可能反噬,导致人类缩减。这就已经足够保证结局了。
|