w********2 发帖数: 632 | |
S**2 发帖数: 1 | |
w********2 发帖数: 632 | |
w********2 发帖数: 632 | 4 ai90年代就冒过泡死了,现在其实是ai 2.0, robot 2.0,所以别太乐观。 |
o***o 发帖数: 194 | 5 泡沫3.0,80年代末无人车就横穿美国了,现在还这样
里面很多骗术,我养猪的都能看出来 |
w********2 发帖数: 632 | |
o***o 发帖数: 194 | 7 AI猪脸识别
【在 w********2 的大作中提到】 : 老莫你是无人ai养猪场吗?
|
w********2 发帖数: 632 | 8 这个牛。比人脸识别难度大多了。
【在 o***o 的大作中提到】 : AI猪脸识别
|
o***o 发帖数: 194 | 9 几百个T的大数据,拍了几十亿张猪脸
【在 w********2 的大作中提到】 : 这个牛。比人脸识别难度大多了。
|
P******r 发帖数: 273 | 10 90年代初的时候人工智能,专家系统火得不得了。当时就有人号称取代一切行业。90年
后期互联网大发展也是不得了。
【在 w********2 的大作中提到】 : ai90年代就冒过泡死了,现在其实是ai 2.0, robot 2.0,所以别太乐观。
|
|
|
w********2 发帖数: 632 | |
a******9 发帖数: 20431 | 12 不一样 AI在工业界确实实用 并且不止是互联网行业
:5年后再找下家。 |
w********2 发帖数: 632 | 13 expert system knowledge system 其实就是ai,也在各行业都有应用,也很有用,但
和真正的expert比还是不行。现在的这种ds ai ml只不过用了hadoop之类的便宜pc建的
cluster/cloud,速度快很多而已,本质没区别。
【在 P******r 的大作中提到】 : 90年代初的时候人工智能,专家系统火得不得了。当时就有人号称取代一切行业。90年 : 后期互联网大发展也是不得了。
|
w********2 发帖数: 632 | 14 ml的算法1980年代就出来了,当时只能在mainframe上用,应用不广。 |
d*****u 发帖数: 17243 | 15 好多工具是现在才有的(以前也不可能做实验)。
比如机器翻译,现在就是把两种语言的文本一一对照着输入训练模型。
以前那些模型是无法做到的。没有词向量,也没有向量的sequence to sequence模型
【在 w********2 的大作中提到】 : expert system knowledge system 其实就是ai,也在各行业都有应用,也很有用,但 : 和真正的expert比还是不行。现在的这种ds ai ml只不过用了hadoop之类的便宜pc建的 : cluster/cloud,速度快很多而已,本质没区别。
|
w********2 发帖数: 632 | 16 本质上都是数据库加brutal force叉树搜索。再加点nn预测。
【在 d*****u 的大作中提到】 : 好多工具是现在才有的(以前也不可能做实验)。 : 比如机器翻译,现在就是把两种语言的文本一一对照着输入训练模型。 : 以前那些模型是无法做到的。没有词向量,也没有向量的sequence to sequence模型
|
a***e 发帖数: 27968 | 17 这次搞定了围棋还是牛不少的
★ 发自iPhone App: ChinaWeb 1.1.4
【在 w********2 的大作中提到】 : 5年后再找下家。
|
d*****u 发帖数: 17243 | 18 还真不是,跟传统CS里的数据结构基本没有关系。
比如经典seq2seq模型(2015年左右推出的)是每输入一个词向量就更新一下RNN的状态,
(所谓状态是个高维数据,自发生成的)。
等一个句子完了以后,用最后的状态来生成目标语言的词向量序列。
训练的过程就是训练怎么用输入更新状态,怎么用状态得到输出。
而这些转换也全都是自动学习的。
经典CS方法是离散数学。当代深度学习全是连续实函数的运算。
【在 w********2 的大作中提到】 : 本质上都是数据库加brutal force叉树搜索。再加点nn预测。
|
w********2 发帖数: 632 | 19 brutal force强大了很多。1990年代ibm mainframe 就赢了国际象棋,一样的思路。简
单一些,要求运算少一些。
【在 a***e 的大作中提到】 : 这次搞定了围棋还是牛不少的 : : ★ 发自iPhone App: ChinaWeb 1.1.4
|
w********2 发帖数: 632 | 20 这个有点动态的意思,我过去没接触过,看看去,再来讨论。rnn过去用过。
态,
【在 d*****u 的大作中提到】 : 还真不是,跟传统CS里的数据结构基本没有关系。 : 比如经典seq2seq模型(2015年左右推出的)是每输入一个词向量就更新一下RNN的状态, : (所谓状态是个高维数据,自发生成的)。 : 等一个句子完了以后,用最后的状态来生成目标语言的词向量序列。 : 训练的过程就是训练怎么用输入更新状态,怎么用状态得到输出。 : 而这些转换也全都是自动学习的。 : 经典CS方法是离散数学。当代深度学习全是连续实函数的运算。
|
|
|
s*****V 发帖数: 21731 | 21 这次AI不算泡沫,智能音箱算一个小菜,下一个big thing是自动驾驶。
【在 w********2 的大作中提到】 : 5年后再找下家。
|
w********2 发帖数: 632 | 22 所有这些泡泡里最对社会有真实贡献的是太空旅行和生物变种技术。别的都是每隔15-
20年翻一次闲饭加点佐料改个名字。 |
d*******t 发帖数: 31 | |