r**h 发帖数: 1288 | 1 三哥,口音很重
给一堆feature和label,如何用logistic regression求一个classifier
overfit如何处理
解释一下KMeans?
GMM如何估计参数?
是否用过矩阵分解
不同regularizer的异同和作用
编程题:反转链表
概率题:一个人喝醉的人往前走的概率是p,往前一步就要摔倒,但是可以后退
请问他摔倒的概率有多少
感觉答得一般,估计要跪了,求bless |
r*******e 发帖数: 7583 | 2 电面聊了这么多,应该过了
概率那题不大懂,前n步摔的概率是1-(1-p)^n ?
【在 r**h 的大作中提到】 : 三哥,口音很重 : 给一堆feature和label,如何用logistic regression求一个classifier : overfit如何处理 : 解释一下KMeans? : GMM如何估计参数? : 是否用过矩阵分解 : 不同regularizer的异同和作用 : 编程题:反转链表 : 概率题:一个人喝醉的人往前走的概率是p,往前一步就要摔倒,但是可以后退 : 请问他摔倒的概率有多少
|
t****d 发帖数: 423 | 3 摔倒的概率为1
因为永远往后走的概率为0
★ 发自iPhone App: ChineseWeb 7.8
【在 r*******e 的大作中提到】 : 电面聊了这么多,应该过了 : 概率那题不大懂,前n步摔的概率是1-(1-p)^n ?
|
r**h 发帖数: 1288 | 4 我觉得不是呀
有可能无限往后走,也有可能循环呢
比如说在某地前后前后
【在 t****d 的大作中提到】 : 摔倒的概率为1 : 因为永远往后走的概率为0 : : ★ 发自iPhone App: ChineseWeb 7.8
|
r**h 发帖数: 1288 | 5 我也不大懂。。。
我的想法是,摔倒只有可能是走了奇数步,然后把所有概率可能加起来
不过序列长了还要考虑排列组合,然后就不懂了
【在 r*******e 的大作中提到】 : 电面聊了这么多,应该过了 : 概率那题不大懂,前n步摔的概率是1-(1-p)^n ?
|
t****d 发帖数: 423 | 6 大哥,你看懂题了吗
只要往前走就摔倒
【在 r**h 的大作中提到】 : 我觉得不是呀 : 有可能无限往后走,也有可能循环呢 : 比如说在某地前后前后
|
r**h 发帖数: 1288 | 7 我题目没有描述清楚
这么说把,假设那个人站在一维坐标轴的原点,每次可以向正负两个方向移动一个单位
。当他走到1这个位置就会摔倒
但是可以退
【在 t****d 的大作中提到】 : 大哥,你看懂题了吗 : 只要往前走就摔倒
|
t****d 发帖数: 423 | 8 1-P(摔倒)
摔倒只能发生在奇数步
求和就可以了
p如果是前行概率,那么
P(摔倒)=p+nchoosek(3,1)(1-p)p^2+nchoosek(5,2)(1-p)^2*p^3+...
化简求和就好
【在 r**h 的大作中提到】 : 我题目没有描述清楚 : 这么说把,假设那个人站在一维坐标轴的原点,每次可以向正负两个方向移动一个单位 : 。当他走到1这个位置就会摔倒 : 但是可以退
|
r**h 发帖数: 1288 | 9 C31是不对的
如果先往前走就直接摔倒了,所以只有(后, 前, 前)一种可能呀
五步的时候同理
【在 t****d 的大作中提到】 : 1-P(摔倒) : 摔倒只能发生在奇数步 : 求和就可以了 : p如果是前行概率,那么 : P(摔倒)=p+nchoosek(3,1)(1-p)p^2+nchoosek(5,2)(1-p)^2*p^3+... : 化简求和就好
|
t****d 发帖数: 423 | 10 大哥,概率是可以加条件的,只要条件充沛
那就就是假设在第一步跌倒,第三步跌倒,第五步跌倒等等
也就是说
P(a)=P(a,b)+p(a,~b)
【在 r**h 的大作中提到】 : C31是不对的 : 如果先往前走就直接摔倒了,所以只有(后, 前, 前)一种可能呀 : 五步的时候同理
|
|
|
g*********e 发帖数: 14401 | |
t****d 发帖数: 423 | 12 对不起,刚刚又想了一下,你说的是对的,所以可能只能用markov chain来做
用坐标来作为状态
设状态0的概率为x,状态1为px
状态-1为(1-p)/px
这样所有状态的状态就都可以用x来表示
所以求结出x就可以得到摔倒的概率了
【在 r**h 的大作中提到】 : C31是不对的 : 如果先往前走就直接摔倒了,所以只有(后, 前, 前)一种可能呀 : 五步的时候同理
|
c***z 发帖数: 6348 | |
f*****e 发帖数: 2992 | 14 最后一题概率是不是
p/(1-p+p*p)
?
【在 r**h 的大作中提到】 : 三哥,口音很重 : 给一堆feature和label,如何用logistic regression求一个classifier : overfit如何处理 : 解释一下KMeans? : GMM如何估计参数? : 是否用过矩阵分解 : 不同regularizer的异同和作用 : 编程题:反转链表 : 概率题:一个人喝醉的人往前走的概率是p,往前一步就要摔倒,但是可以后退 : 请问他摔倒的概率有多少
|
f*****e 发帖数: 2992 | 15 楼主是统计的还是CS的?
【在 r**h 的大作中提到】 : 三哥,口音很重 : 给一堆feature和label,如何用logistic regression求一个classifier : overfit如何处理 : 解释一下KMeans? : GMM如何估计参数? : 是否用过矩阵分解 : 不同regularizer的异同和作用 : 编程题:反转链表 : 概率题:一个人喝醉的人往前走的概率是p,往前一步就要摔倒,但是可以后退 : 请问他摔倒的概率有多少
|
r**h 发帖数: 1288 | 16 CS的
这是我当时给的答案不过我觉得不对,因为没有考虑组合的情况
【在 f*****e 的大作中提到】 : 最后一题概率是不是 : p/(1-p+p*p) : ?
|
r*******e 发帖数: 7583 | 17 搜了一下,我觉得答案应该是 p/(1-p)
假设从0最终到1的概率是r
r = p + (1-p)*r^2
http://math.stackexchange.com/questions/153123/biased-random-wa
【在 r**h 的大作中提到】 : CS的 : 这是我当时给的答案不过我觉得不对,因为没有考虑组合的情况
|
r*******n 发帖数: 11 | 18 都是最基本的machine learning的知识, 比问算法的题目有意思。 最后一题应该是 1
吧 |
f*****e 发帖数: 2992 | 19 p>=1/2 是1
p<1/2 是p/(1-p)?
1
【在 r*******n 的大作中提到】 : 都是最基本的machine learning的知识, 比问算法的题目有意思。 最后一题应该是 1 : 吧
|
r*********n 发帖数: 4553 | 20 LZ 是new grad吗?我在他家网站上面看了下,貌似没有new grad的position |
|
|
f*****e 发帖数: 2992 | 21 p=0的时候肯定不是1。所以还是个分段函数,有点意思。
1
【在 r*******n 的大作中提到】 : 都是最基本的machine learning的知识, 比问算法的题目有意思。 最后一题应该是 1 : 吧
|
r*********n 发帖数: 4553 | 22 最后那个问题是martingale stopping time的升级版
如果p不等于0.5,不是martingale,但是可以算出均值(2p-1)n
Let X_n = S_n + (2p-1)n, where S_n is a martingale, E(S_n) = 0,n is # steps
Let Z_n = exp{sigma*S_n}*(2/(exp{sigma}+exp{-sigma})), which is a martingale
, E(Z_n) = 0, and sigma is a design parameter. Then you can express Z_n in
terms of X_n.
A martingale stopped at stopping time is still a martingale
E(Z_{min{n,tau}}) = 0, where tau denotes stopping time
Now you can choose X_n = 1 and X_n = -infinity as the stopping criteria.
Using the above identity, substituting X_n with 1 and -infinity, you can set
up an equation involving prob{X_n=1} and solve for it. |
u*****o 发帖数: 1224 | |
u*****o 发帖数: 1224 | 24 LZ你申的这个位置是DATA SCIENTIST还是SDE啊? |
f*******3 发帖数: 206 | 25 那个摔跤的有这么复杂么,不就是个geometric distribution么?
往前一步是硬币正面(p),往后是硬币反面(1-p),一直抛到第一次正面停止,求期
望抛几次(走几步)怎么martingale都整出来了,又不是deshaw的onsite |
r*********n 发帖数: 4553 | 26 LZ后来补充了一下题目
如果是你这么理解题意,摔倒的概率为1,题目没要求求期望
【在 f*******3 的大作中提到】 : 那个摔跤的有这么复杂么,不就是个geometric distribution么? : 往前一步是硬币正面(p),往后是硬币反面(1-p),一直抛到第一次正面停止,求期 : 望抛几次(走几步)怎么martingale都整出来了,又不是deshaw的onsite
|
J****3 发帖数: 427 | |
s*****G 发帖数: 1535 | 28 re这个!!
CS的同志们应该复习复习quant版的数学题目!!!
【在 f*******3 的大作中提到】 : 那个摔跤的有这么复杂么,不就是个geometric distribution么? : 往前一步是硬币正面(p),往后是硬币反面(1-p),一直抛到第一次正面停止,求期 : 望抛几次(走几步)怎么martingale都整出来了,又不是deshaw的onsite
|
s*****r 发帖数: 43070 | 29 new CS PHD,拿到面试应该没问题
【在 r*********n 的大作中提到】 : LZ 是new grad吗?我在他家网站上面看了下,貌似没有new grad的position
|
a*****u 发帖数: 1712 | |
|
|
v*****a 发帖数: 104 | 31 。。。这个明显不对。因为这个process的success的定义和geometric的success完全不
一样。
举个简单的例子吧,geometric中,扔硬币扔了7次反面,第八次是正面,叫做失败了7
次第八次成功了。
但是这个走路的,往左边走了7步,然后往右走了一步,那也只是到了坐标-6的地方,
离+1还远呢。。。
而且,这道题是要算概率,而不是算期望。
【在 f*******3 的大作中提到】 : 那个摔跤的有这么复杂么,不就是个geometric distribution么? : 往前一步是硬币正面(p),往后是硬币反面(1-p),一直抛到第一次正面停止,求期 : 望抛几次(走几步)怎么martingale都整出来了,又不是deshaw的onsite
|
v*****a 发帖数: 104 | 32 I think so...
【在 f*****e 的大作中提到】 : p>=1/2 是1 : p<1/2 是p/(1-p)? : : 1
|
x*****0 发帖数: 452 | |
g****y 发帖数: 2810 | 34 这是SWDE的面试吗?还是data analyst?
机器学习的东西多了些,超出码农的范畴了吧!
【在 r**h 的大作中提到】 : 三哥,口音很重 : 给一堆feature和label,如何用logistic regression求一个classifier : overfit如何处理 : 解释一下KMeans? : GMM如何估计参数? : 是否用过矩阵分解 : 不同regularizer的异同和作用 : 编程题:反转链表 : 概率题:一个人喝醉的人往前走的概率是p,往前一步就要摔倒,但是可以后退 : 请问他摔倒的概率有多少
|