j********g 发帖数: 61 | 1 CNN对于Image classification有很高的正确率。
我想到的一个case是,如果用一个training dataset之外的图片,那么肯定是识别错了。
能否构造这么一个Model,如果test的image不在training dataset里面,Model output
“我不知道这张图片是什么。”
我想到的是现在ML是基于概率论,那么前提就是sum^(p_i)=1。这样就没有这个Unknown
的class了。是不是基于概率论就没法解决这个问题了?
请大家多指教。或者告知在哪儿能找到相关文献?arxiv上没找到。谢谢。 |
w***g 发帖数: 5958 | 2 unknown的东西怎么预测? 如果可以预测了还是unknown吗?
machine learning能预测的东西,或多或少得知道点啥才行。
有可能会外加一个background class,说不清道不明的样本
都加里面,那也得有样本才行。
了。
output
Unknown
【在 j********g 的大作中提到】 : CNN对于Image classification有很高的正确率。 : 我想到的一个case是,如果用一个training dataset之外的图片,那么肯定是识别错了。 : 能否构造这么一个Model,如果test的image不在training dataset里面,Model output : “我不知道这张图片是什么。” : 我想到的是现在ML是基于概率论,那么前提就是sum^(p_i)=1。这样就没有这个Unknown : 的class了。是不是基于概率论就没法解决这个问题了? : 请大家多指教。或者告知在哪儿能找到相关文献?arxiv上没找到。谢谢。
|
j********g 发帖数: 61 | 3 这就是我想问的问题呀。
训练了model,结果来了只黑天鹅。NN是learning from examples。
我现在能想到的一个应用场景是,NN的准确率很高,但是有时候还是会被fool。那么有
没有可能加一个class或者什么别的方法能够识别出test不在原来train的class里面或
者专门有个class是需要进一步检查的。这个概率分布想不出来呀。 |
n******7 发帖数: 12463 | 4 感觉你这个说的就是semi-supervised anomaly detection
【在 j********g 的大作中提到】 : 这就是我想问的问题呀。 : 训练了model,结果来了只黑天鹅。NN是learning from examples。 : 我现在能想到的一个应用场景是,NN的准确率很高,但是有时候还是会被fool。那么有 : 没有可能加一个class或者什么别的方法能够识别出test不在原来train的class里面或 : 者专门有个class是需要进一步检查的。这个概率分布想不出来呀。
|
j********g 发帖数: 61 | 5 谢谢。我去找找看。
【在 n******7 的大作中提到】 : 感觉你这个说的就是semi-supervised anomaly detection
|
x****u 发帖数: 44466 | 6 你如果希望找出dataset之外的图片,那搞什么深度学习直接算哈希值比较啊
了。
output
Unknown
【在 j********g 的大作中提到】 : CNN对于Image classification有很高的正确率。 : 我想到的一个case是,如果用一个training dataset之外的图片,那么肯定是识别错了。 : 能否构造这么一个Model,如果test的image不在training dataset里面,Model output : “我不知道这张图片是什么。” : 我想到的是现在ML是基于概率论,那么前提就是sum^(p_i)=1。这样就没有这个Unknown : 的class了。是不是基于概率论就没法解决这个问题了? : 请大家多指教。或者告知在哪儿能找到相关文献?arxiv上没找到。谢谢。
|
x****u 发帖数: 44466 | 7 CNN的出发点不是解决被不被fool的问题
想不被fool,要提取更高层次信息训练比如4条腿的是猫,8条腿的是ps过的猫,而不是
让电脑自己蒙
什么都不管直接扔进去,学出来的是一种极底层的直觉或者说兽欲。比如人类生殖模式
本来是得找异性交配的,但对于很多人来说可以用差别极大的塑料工具fool掉。。。
【在 j********g 的大作中提到】 : 这就是我想问的问题呀。 : 训练了model,结果来了只黑天鹅。NN是learning from examples。 : 我现在能想到的一个应用场景是,NN的准确率很高,但是有时候还是会被fool。那么有 : 没有可能加一个class或者什么别的方法能够识别出test不在原来train的class里面或 : 者专门有个class是需要进一步检查的。这个概率分布想不出来呀。
|
g****t 发帖数: 31659 | 8 温度25度,这话是对还是错?
准不准?
是猫还是狗,对错怎么分?是猫还是猫的照片,能分出来吗
对错只是个名字。
得和逻辑可操作的验证步骤联系起来
才能有对错
逻辑可操作的逻辑步骤张成的空间里
是可以一直走到越来越准的
就像测量温度
预测联系的是数字空间的计算结果
和实验步骤的操作结果
其他的什么准不准之类的名词都是没有必要的一些辅助线
逻辑实证主义哲学对这种一般应用足够了
你读下Einstein的文章就全明白了
无需寻找别的解释 |
j********g 发帖数: 61 | 9 你说的这个太深了。我理解不了。
【在 g****t 的大作中提到】 : 温度25度,这话是对还是错? : 准不准? : 是猫还是狗,对错怎么分?是猫还是猫的照片,能分出来吗 : 对错只是个名字。 : 得和逻辑可操作的验证步骤联系起来 : 才能有对错 : 逻辑可操作的逻辑步骤张成的空间里 : 是可以一直走到越来越准的 : 就像测量温度 : 预测联系的是数字空间的计算结果
|
L****8 发帖数: 3938 | 10 胡说一个 如果 所有输出概率大致相同 就说明对输出哪一类不是很确定 也就是不知道
如果是输出两类 0.9 v 0.1 0.5 v 0.4 显然后者属于不知道
discriminative模型 被fool的可能性大 我说的方法可能失效 比如CNN
了。
output
Unknown
【在 j********g 的大作中提到】 : CNN对于Image classification有很高的正确率。 : 我想到的一个case是,如果用一个training dataset之外的图片,那么肯定是识别错了。 : 能否构造这么一个Model,如果test的image不在training dataset里面,Model output : “我不知道这张图片是什么。” : 我想到的是现在ML是基于概率论,那么前提就是sum^(p_i)=1。这样就没有这个Unknown : 的class了。是不是基于概率论就没法解决这个问题了? : 请大家多指教。或者告知在哪儿能找到相关文献?arxiv上没找到。谢谢。
|
|
|
C*****5 发帖数: 8812 | 11 听不懂也没关系。反正懂了对学DL也没帮助。
【在 j********g 的大作中提到】 : 你说的这个太深了。我理解不了。
|
g****t 发帖数: 31659 | 12 我个人是实验物理的思路。但这只是个人经验的一点浅见。
不一定对,也不一定有必要。
不懂操作系统,玩玩excel赚大钱的多的是。所以凡事
不是都需要个底层解释的。每个人都有自己的智慧,可以有
自己的系统。索罗斯现在还在忙着弄一套野鸡哲学。
所以我的意思是,概率也好,数理模型也好,这些东西的
解释,我个人的体会是逻辑实证主义足够覆盖绝大多数
应用例子了。也就是到马赫和爱因斯坦就行了。最多到poincare
理解一个科学解释学系统的好处是不用自己花时间建系统。
但如果不是销售工作的,其实一般是不需要这些的。
: 你说的这个太深了。我理解不了。
【在 j********g 的大作中提到】 : 你说的这个太深了。我理解不了。
|
t***r 发帖数: 225 | 13 This is called "open set recognition", deep or non-deep learning.
A. Bendale and T.E. Boult "Towards Open set Deep Networks". IEEE Conf. on
Computer Vision and Pattern Recognition (CVPR 2016, Short Oral).
Abhijit Bendale, Terrance E. Boult; "What Do You Do When You Know That You
Don't Know?" The IEEE Conference on Computer Vision and Pattern Recognition
(CVPR) Workshops, 2016, pp. 1-8
A. Bendale and T.E. Boult " Towards Open World Recognition ". IEEE Conf. on
Computer Vision and Pattern Recognition (CVPR 2015, Oral).
http://vast.uccs.edu/~tboult/resume.html |
b****a 发帖数: 345 | 14 无论你怎么构造model,总能找到/构造一个输入:
1、不能“正确地”归纳入任何一个你定义的输出范畴里;或
2、死循环,没有输出
这是CS里101的知识。看来你是学应用数学的。
了。
output
Unknown
【在 j********g 的大作中提到】 : CNN对于Image classification有很高的正确率。 : 我想到的一个case是,如果用一个training dataset之外的图片,那么肯定是识别错了。 : 能否构造这么一个Model,如果test的image不在training dataset里面,Model output : “我不知道这张图片是什么。” : 我想到的是现在ML是基于概率论,那么前提就是sum^(p_i)=1。这样就没有这个Unknown : 的class了。是不是基于概率论就没法解决这个问题了? : 请大家多指教。或者告知在哪儿能找到相关文献?arxiv上没找到。谢谢。
|
w***g 发帖数: 5958 | 15 以前看到一片科幻小说挺有意思的。
就是说未来某天有人发明了一种图片,
这种图片是专门构造出来的人脑无法处理的图片,
人看了这种图片大脑就会死循环,然后人就会死。
然后恐怖主义分子就四处散发这种图片。
大致就是你说的这种情况。
【在 b****a 的大作中提到】 : 无论你怎么构造model,总能找到/构造一个输入: : 1、不能“正确地”归纳入任何一个你定义的输出范畴里;或 : 2、死循环,没有输出 : 这是CS里101的知识。看来你是学应用数学的。 : : 了。 : output : Unknown
|
g****t 发帖数: 31659 | 16 机器人看一眼就死机我肯定能做出来。就跟pdf病毒差不多嘛。
: 以前看到一片科幻小说挺有意思的。
: 就是说未来某天有人发明了一种图片,
: 这种图片是专门构造出来的人脑无法处理的图片,
: 人看了这种图片大脑就会死循环,然后人就会死。
: 然后恐怖主义分子就四处散发这种图片。
: 大致就是你说的这种情况。
【在 w***g 的大作中提到】 : 以前看到一片科幻小说挺有意思的。 : 就是说未来某天有人发明了一种图片, : 这种图片是专门构造出来的人脑无法处理的图片, : 人看了这种图片大脑就会死循环,然后人就会死。 : 然后恐怖主义分子就四处散发这种图片。 : 大致就是你说的这种情况。
|
b****a 发帖数: 345 | 17 去读读心理学的历史。再去看各种媒体。就明白所有这些免费信息,包括其排列顺序,
的目的就是trigger人的大脑。不少脑子因此短路了进了死循环。这个网站里没心版好
像特别多。
【在 w***g 的大作中提到】 : 以前看到一片科幻小说挺有意思的。 : 就是说未来某天有人发明了一种图片, : 这种图片是专门构造出来的人脑无法处理的图片, : 人看了这种图片大脑就会死循环,然后人就会死。 : 然后恐怖主义分子就四处散发这种图片。 : 大致就是你说的这种情况。
|
j********g 发帖数: 61 | 18 只为了赚钱就不用搞明白这个了。有点儿好奇心而已。
【在 g****t 的大作中提到】 : 我个人是实验物理的思路。但这只是个人经验的一点浅见。 : 不一定对,也不一定有必要。 : 不懂操作系统,玩玩excel赚大钱的多的是。所以凡事 : 不是都需要个底层解释的。每个人都有自己的智慧,可以有 : 自己的系统。索罗斯现在还在忙着弄一套野鸡哲学。 : 所以我的意思是,概率也好,数理模型也好,这些东西的 : 解释,我个人的体会是逻辑实证主义足够覆盖绝大多数 : 应用例子了。也就是到马赫和爱因斯坦就行了。最多到poincare : 理解一个科学解释学系统的好处是不用自己花时间建系统。 : 但如果不是销售工作的,其实一般是不需要这些的。
|
j********g 发帖数: 61 | 19 这个在weights都已经学好了情况下,给啥Input都能output个训练过的label。
胡乱猜猜就是现在这个method,这个问题无解。 |
j********g 发帖数: 61 | 20 这个挺有意思。不过每个人的脑袋都不一样,看到的反应应该也不一样。
比如说看到苍老师。:D
【在 w***g 的大作中提到】 : 以前看到一片科幻小说挺有意思的。 : 就是说未来某天有人发明了一种图片, : 这种图片是专门构造出来的人脑无法处理的图片, : 人看了这种图片大脑就会死循环,然后人就会死。 : 然后恐怖主义分子就四处散发这种图片。 : 大致就是你说的这种情况。
|
|
|
x****u 发帖数: 44466 | 21 如果机器人是神经网络,就不能死机啊,不是图灵机就可以做成确定停机的
【在 g****t 的大作中提到】 : 机器人看一眼就死机我肯定能做出来。就跟pdf病毒差不多嘛。 : : : 以前看到一片科幻小说挺有意思的。 : : 就是说未来某天有人发明了一种图片, : : 这种图片是专门构造出来的人脑无法处理的图片, : : 人看了这种图片大脑就会死循环,然后人就会死。 : : 然后恐怖主义分子就四处散发这种图片。 : : 大致就是你说的这种情况。 :
|
g****t 发帖数: 31659 | 22 Rnn和图灵机等价。我记得1995年science有个文章。
我本科做过rnn
: 如果机器人是神经网络,就不能死机啊,不是图灵机就可以做成确定停机的
【在 x****u 的大作中提到】 : 如果机器人是神经网络,就不能死机啊,不是图灵机就可以做成确定停机的
|
x****u 发帖数: 44466 | 23 你记错了吧,RNN是更晚的概念,而且RNN有很多种,我印象中至少大部分都是有限循环
机的
【在 g****t 的大作中提到】 : Rnn和图灵机等价。我记得1995年science有个文章。 : 我本科做过rnn : : : 如果机器人是神经网络,就不能死机啊,不是图灵机就可以做成确定停机的 :
|
w****1 发帖数: 24 | |
g****t 发帖数: 31659 | 25 你查computation beyond turing limit
或者church thesis
Super turing rnn
: 你记错了吧,RNN是更晚的概念,而且RNN有很多种,我印象中至少大部分
都是有
限循环
: 机的
【在 x****u 的大作中提到】 : 你记错了吧,RNN是更晚的概念,而且RNN有很多种,我印象中至少大部分都是有限循环 : : 机的
|
x****u 发帖数: 44466 | 26 RNN在哪里?
【在 g****t 的大作中提到】 : 你查computation beyond turing limit : 或者church thesis : Super turing rnn : : : 你记错了吧,RNN是更晚的概念,而且RNN有很多种,我印象中至少大部分 : 都是有 : 限循环 : : 机的 :
|
g****t 发帖数: 31659 | 27 it is known that RNNs are Turing-Complete in the sense that they can to
simulate arbitrary programs (with proper weights). But similar to universal
approximation theorems for neural nets you shouldn’t read too much into
this. In fact, forget I said anything
这个blog作者引用的就是我说的那几个文章。
: RNN在哪里?
【在 x****u 的大作中提到】 : RNN在哪里?
|
g****t 发帖数: 31659 | 28 http://lipas.uwasa.fi/stes/step96/step96/hyotyniemi1/
Constructive proof
: RNN在哪里?
【在 x****u 的大作中提到】 : RNN在哪里?
|
b****a 发帖数: 345 | 29 要停机很容易,瞎蒙啊,一下就出结果了。关键是不保证正确。
【在 x****u 的大作中提到】 : 如果机器人是神经网络,就不能死机啊,不是图灵机就可以做成确定停机的
|
c*****t 发帖数: 10738 | 30 对CNN不可能吧,最多就是没有neuron被激活。
【在 g****t 的大作中提到】 : 机器人看一眼就死机我肯定能做出来。就跟pdf病毒差不多嘛。 : : : 以前看到一片科幻小说挺有意思的。 : : 就是说未来某天有人发明了一种图片, : : 这种图片是专门构造出来的人脑无法处理的图片, : : 人看了这种图片大脑就会死循环,然后人就会死。 : : 然后恐怖主义分子就四处散发这种图片。 : : 大致就是你说的这种情况。 :
|
|
|
L****8 发帖数: 3938 | 31 看特殊图像视频洗脑 比如 神盾特工局 这个片子
【在 w***g 的大作中提到】 : 以前看到一片科幻小说挺有意思的。 : 就是说未来某天有人发明了一种图片, : 这种图片是专门构造出来的人脑无法处理的图片, : 人看了这种图片大脑就会死循环,然后人就会死。 : 然后恐怖主义分子就四处散发这种图片。 : 大致就是你说的这种情况。
|
M***6 发帖数: 895 | 32 lol。不可以直接懵逼吗?为什么要死。
【在 w***g 的大作中提到】 : 以前看到一片科幻小说挺有意思的。 : 就是说未来某天有人发明了一种图片, : 这种图片是专门构造出来的人脑无法处理的图片, : 人看了这种图片大脑就会死循环,然后人就会死。 : 然后恐怖主义分子就四处散发这种图片。 : 大致就是你说的这种情况。
|