h*********i 发帖数: 2605 | 1 【 以下文字转载自 Military 讨论区 】
发信人: woaibainiu (), 信区: Military
标 题: 为什么电脑不能自己写代码?
发信站: BBS 未名空间站 (Sat Feb 25 11:56:26 2017, 美东)
现在人工智能阿法狗那么牛逼,为什么不能写马自动化? |
h*****o 发帖数: 84 | |
a****o 发帖数: 6612 | 3 哥德尔的不完备性定理。
简单一点讲,就是从根本上,电脑不能判断代码写的对不对。
【在 h*********i 的大作中提到】 : 【 以下文字转载自 Military 讨论区 】 : 发信人: woaibainiu (), 信区: Military : 标 题: 为什么电脑不能自己写代码? : 发信站: BBS 未名空间站 (Sat Feb 25 11:56:26 2017, 美东) : 现在人工智能阿法狗那么牛逼,为什么不能写马自动化?
|
f*******t 发帖数: 7549 | 4 人也不能啊
【在 a****o 的大作中提到】 : 哥德尔的不完备性定理。 : 简单一点讲,就是从根本上,电脑不能判断代码写的对不对。
|
x****u 发帖数: 44466 | 5 因为今天搞dl不用这么高级的功能就很挣钱了
【在 h*********i 的大作中提到】 : 【 以下文字转载自 Military 讨论区 】 : 发信人: woaibainiu (), 信区: Military : 标 题: 为什么电脑不能自己写代码? : 发信站: BBS 未名空间站 (Sat Feb 25 11:56:26 2017, 美东) : 现在人工智能阿法狗那么牛逼,为什么不能写马自动化?
|
x****u 发帖数: 44466 | 6 你这个理解不对啊
明明是图灵停机问题,而且深度学习显然不是图灵机模型啊
【在 a****o 的大作中提到】 : 哥德尔的不完备性定理。 : 简单一点讲,就是从根本上,电脑不能判断代码写的对不对。
|
W***o 发帖数: 6519 | 7 电脑其实啥都不会做,你如果不告诉它怎么做,它就是一堆废物。 |
w*s 发帖数: 7227 | 8 大牛,假如告诉AI它的目标是永生,
给它摄像头,压力sensor,温度sensor,...
它需要发明工具来探索这个世界,
比如根据抛苹果来理解物理,
探索地球发现水,火,风以及不同元素,
你觉得它会进化吗?
【在 W***o 的大作中提到】 : 电脑其实啥都不会做,你如果不告诉它怎么做,它就是一堆废物。
|
W***o 发帖数: 6519 | 9 你比 God 都牛
人都做不到的事,AI怎么能做成?
【在 w*s 的大作中提到】 : 大牛,假如告诉AI它的目标是永生, : 给它摄像头,压力sensor,温度sensor,... : 它需要发明工具来探索这个世界, : 比如根据抛苹果来理解物理, : 探索地球发现水,火,风以及不同元素, : 你觉得它会进化吗?
|
w*s 发帖数: 7227 | 10 人永生靠细胞,机器人永生换零件,难度不一样。
当然不排除将来细胞器官可以换,我不懂生物。
你比 God 都牛
【在 W***o 的大作中提到】 : 你比 God 都牛 : 人都做不到的事,AI怎么能做成?
|
|
|
a****o 发帖数: 6612 | 11 任何有计算机实现的程序,都要受到图灵停机问题的限制。深度学习也不例外。
打个比方,深度学习用筛法来证明歌德巴赫猜想,也许真的证明出1+1=2,但是计算机
本身可能无法自己检查自己的证明是不是正确。
【在 x****u 的大作中提到】 : 你这个理解不对啊 : 明明是图灵停机问题,而且深度学习显然不是图灵机模型啊
|
x****u 发帖数: 44466 | 12 尽信书不如无书啊
图灵停机的前提是确定性,现在大规模神经网络训练基本都满足不了。为了提高效率,
分布运算都会放弃严格确定性。
【在 a****o 的大作中提到】 : 任何有计算机实现的程序,都要受到图灵停机问题的限制。深度学习也不例外。 : 打个比方,深度学习用筛法来证明歌德巴赫猜想,也许真的证明出1+1=2,但是计算机 : 本身可能无法自己检查自己的证明是不是正确。
|
a****o 发帖数: 6612 | 13 放弃严格确定性可以避免死循环,但是仍不能证明计算机自己的对错,所以说对于深度
学习来说,也受到不完备性的限制。
【在 x****u 的大作中提到】 : 尽信书不如无书啊 : 图灵停机的前提是确定性,现在大规模神经网络训练基本都满足不了。为了提高效率, : 分布运算都会放弃严格确定性。
|
x****u 发帖数: 44466 | 14 只要有非确定性,任何事情都可能发生
率,
【在 a****o 的大作中提到】 : 放弃严格确定性可以避免死循环,但是仍不能证明计算机自己的对错,所以说对于深度 : 学习来说,也受到不完备性的限制。
|
w********m 发帖数: 1137 | 15 假设有一天,出现了会写程序的牛逼AI。
然后来了个有钱的傻逼老板,想写程序。
问题是,牛逼AI怎么才能知道傻逼老板有什么奇葩想法了?
于是,要有个马仔,帮忙把老板的想法整理一下,然后告诉AI。与AI沟通的方法可以是
说话,跳舞,或者打键盘。
这个马仔就叫程序员。他跟AI沟通的方法叫程序语言。
所以程序员这个职业是不会消失的。 |
a****o 发帖数: 6612 | 16 对。
【在 x****u 的大作中提到】 : 只要有非确定性,任何事情都可能发生 : : 率,
|
l**********0 发帖数: 150 | 17 人类语言的不确定性和程序语言确定性之间的分歧很难解决,如果通过另一种确定性的
高级语言来解决,其实我们已经解决了一部分,java->中间语言->jit->native code。
无非将来在java的前头再多加另一层确定性的高级语言,不过这种代码性能肯定成问题
,到时候需要调优员,代码生成器维护者,一般人也干不了,还是程序员。 |
v*******e 发帖数: 11604 | 18 你这是瞎扯蛋。第一个AI是会说话的AI。傻逼老板直接和AI说话,说我要这样这样做。
AI说好。就这样。
【在 w********m 的大作中提到】 : 假设有一天,出现了会写程序的牛逼AI。 : 然后来了个有钱的傻逼老板,想写程序。 : 问题是,牛逼AI怎么才能知道傻逼老板有什么奇葩想法了? : 于是,要有个马仔,帮忙把老板的想法整理一下,然后告诉AI。与AI沟通的方法可以是 : 说话,跳舞,或者打键盘。 : 这个马仔就叫程序员。他跟AI沟通的方法叫程序语言。 : 所以程序员这个职业是不会消失的。
|
h*********i 发帖数: 2605 | 19 【 以下文字转载自 Military 讨论区 】
发信人: woaibainiu (), 信区: Military
标 题: 为什么电脑不能自己写代码?
发信站: BBS 未名空间站 (Sat Feb 25 11:56:26 2017, 美东)
现在人工智能阿法狗那么牛逼,为什么不能写马自动化? |
h*****o 发帖数: 84 | |
|
|
a****o 发帖数: 6612 | 21 哥德尔的不完备性定理。
简单一点讲,就是从根本上,电脑不能判断代码写的对不对。
【在 h*********i 的大作中提到】 : 【 以下文字转载自 Military 讨论区 】 : 发信人: woaibainiu (), 信区: Military : 标 题: 为什么电脑不能自己写代码? : 发信站: BBS 未名空间站 (Sat Feb 25 11:56:26 2017, 美东) : 现在人工智能阿法狗那么牛逼,为什么不能写马自动化?
|
f*******t 发帖数: 7549 | 22 人也不能啊
【在 a****o 的大作中提到】 : 哥德尔的不完备性定理。 : 简单一点讲,就是从根本上,电脑不能判断代码写的对不对。
|
x****u 发帖数: 44466 | 23 因为今天搞dl不用这么高级的功能就很挣钱了
【在 h*********i 的大作中提到】 : 【 以下文字转载自 Military 讨论区 】 : 发信人: woaibainiu (), 信区: Military : 标 题: 为什么电脑不能自己写代码? : 发信站: BBS 未名空间站 (Sat Feb 25 11:56:26 2017, 美东) : 现在人工智能阿法狗那么牛逼,为什么不能写马自动化?
|
x****u 发帖数: 44466 | 24 你这个理解不对啊
明明是图灵停机问题,而且深度学习显然不是图灵机模型啊
【在 a****o 的大作中提到】 : 哥德尔的不完备性定理。 : 简单一点讲,就是从根本上,电脑不能判断代码写的对不对。
|
W***o 发帖数: 6519 | 25 电脑其实啥都不会做,你如果不告诉它怎么做,它就是一堆废物。 |
w*s 发帖数: 7227 | 26 大牛,假如告诉AI它的目标是永生,
给它摄像头,压力sensor,温度sensor,...
它需要发明工具来探索这个世界,
比如根据抛苹果来理解物理,
探索地球发现水,火,风以及不同元素,
你觉得它会进化吗?
【在 W***o 的大作中提到】 : 电脑其实啥都不会做,你如果不告诉它怎么做,它就是一堆废物。
|
W***o 发帖数: 6519 | 27 你比 God 都牛
人都做不到的事,AI怎么能做成?
【在 w*s 的大作中提到】 : 大牛,假如告诉AI它的目标是永生, : 给它摄像头,压力sensor,温度sensor,... : 它需要发明工具来探索这个世界, : 比如根据抛苹果来理解物理, : 探索地球发现水,火,风以及不同元素, : 你觉得它会进化吗?
|
w*s 发帖数: 7227 | 28 人永生靠细胞,机器人永生换零件,难度不一样。
当然不排除将来细胞器官可以换,我不懂生物。
你比 God 都牛
【在 W***o 的大作中提到】 : 你比 God 都牛 : 人都做不到的事,AI怎么能做成?
|
a****o 发帖数: 6612 | 29 任何有计算机实现的程序,都要受到图灵停机问题的限制。深度学习也不例外。
打个比方,深度学习用筛法来证明歌德巴赫猜想,也许真的证明出1+1=2,但是计算机
本身可能无法自己检查自己的证明是不是正确。
【在 x****u 的大作中提到】 : 你这个理解不对啊 : 明明是图灵停机问题,而且深度学习显然不是图灵机模型啊
|
x****u 发帖数: 44466 | 30 尽信书不如无书啊
图灵停机的前提是确定性,现在大规模神经网络训练基本都满足不了。为了提高效率,
分布运算都会放弃严格确定性。
【在 a****o 的大作中提到】 : 任何有计算机实现的程序,都要受到图灵停机问题的限制。深度学习也不例外。 : 打个比方,深度学习用筛法来证明歌德巴赫猜想,也许真的证明出1+1=2,但是计算机 : 本身可能无法自己检查自己的证明是不是正确。
|
|
|
a****o 发帖数: 6612 | 31 放弃严格确定性可以避免死循环,但是仍不能证明计算机自己的对错,所以说对于深度
学习来说,也受到不完备性的限制。
【在 x****u 的大作中提到】 : 尽信书不如无书啊 : 图灵停机的前提是确定性,现在大规模神经网络训练基本都满足不了。为了提高效率, : 分布运算都会放弃严格确定性。
|
x****u 发帖数: 44466 | 32 只要有非确定性,任何事情都可能发生
率,
【在 a****o 的大作中提到】 : 放弃严格确定性可以避免死循环,但是仍不能证明计算机自己的对错,所以说对于深度 : 学习来说,也受到不完备性的限制。
|
w********m 发帖数: 1137 | 33 假设有一天,出现了会写程序的牛逼AI。
然后来了个有钱的傻逼老板,想写程序。
问题是,牛逼AI怎么才能知道傻逼老板有什么奇葩想法了?
于是,要有个马仔,帮忙把老板的想法整理一下,然后告诉AI。与AI沟通的方法可以是
说话,跳舞,或者打键盘。
这个马仔就叫程序员。他跟AI沟通的方法叫程序语言。
所以程序员这个职业是不会消失的。 |
a****o 发帖数: 6612 | 34 对。
【在 x****u 的大作中提到】 : 只要有非确定性,任何事情都可能发生 : : 率,
|
l**********0 发帖数: 150 | 35 人类语言的不确定性和程序语言确定性之间的分歧很难解决,如果通过另一种确定性的
高级语言来解决,其实我们已经解决了一部分,java->中间语言->jit->native code。
无非将来在java的前头再多加另一层确定性的高级语言,不过这种代码性能肯定成问题
,到时候需要调优员,代码生成器维护者,一般人也干不了,还是程序员。 |
v*******e 发帖数: 11604 | 36 你这是瞎扯蛋。第一个AI是会说话的AI。傻逼老板直接和AI说话,说我要这样这样做。
AI说好。就这样。
【在 w********m 的大作中提到】 : 假设有一天,出现了会写程序的牛逼AI。 : 然后来了个有钱的傻逼老板,想写程序。 : 问题是,牛逼AI怎么才能知道傻逼老板有什么奇葩想法了? : 于是,要有个马仔,帮忙把老板的想法整理一下,然后告诉AI。与AI沟通的方法可以是 : 说话,跳舞,或者打键盘。 : 这个马仔就叫程序员。他跟AI沟通的方法叫程序语言。 : 所以程序员这个职业是不会消失的。
|
m********s 发帖数: 55301 | 37 当然可以了。
【在 h*********i 的大作中提到】 : 【 以下文字转载自 Military 讨论区 】 : 发信人: woaibainiu (), 信区: Military : 标 题: 为什么电脑不能自己写代码? : 发信站: BBS 未名空间站 (Sat Feb 25 11:56:26 2017, 美东) : 现在人工智能阿法狗那么牛逼,为什么不能写马自动化?
|
c*******9 发帖数: 9032 | 38 现在可以写几句简单的。
【在 h*********i 的大作中提到】 : 【 以下文字转载自 Military 讨论区 】 : 发信人: woaibainiu (), 信区: Military : 标 题: 为什么电脑不能自己写代码? : 发信站: BBS 未名空间站 (Sat Feb 25 11:56:26 2017, 美东) : 现在人工智能阿法狗那么牛逼,为什么不能写马自动化?
|