K****n 发帖数: 5970 | 1 有Probit function,就是Cumulative Gaussian,作概率P(x|w),w是probit function的
一个参数,另一个已知。
然后用一个Gaussian当prior prior(w),其中Gaussian的参数都是常数
我又知道w只有从1到100这100个整数的可能
现在有一堆sample,用X表示, likelihood是一堆probit function P(x|w)的乘积L(X|w)
那 posterior(w|X) 正比于 L(X|w)*prior(w)
这个虽然没有analytical解,但是我是不是只要把1到100一个一个试一遍,找出那个让
posterior
最大的就算解完这道题了。。。
谢谢指导! |
D****A 发帖数: 360 | 2 这个是应该有可能有解析解的,把公式都列出来,应用一下久违的高等数学,求个导
我这个外行都觉得不会太难吧,哈哈
function的
|w)
【在 K****n 的大作中提到】 : 有Probit function,就是Cumulative Gaussian,作概率P(x|w),w是probit function的 : 一个参数,另一个已知。 : 然后用一个Gaussian当prior prior(w),其中Gaussian的参数都是常数 : 我又知道w只有从1到100这100个整数的可能 : 现在有一堆sample,用X表示, likelihood是一堆probit function P(x|w)的乘积L(X|w) : 那 posterior(w|X) 正比于 L(X|w)*prior(w) : 这个虽然没有analytical解,但是我是不是只要把1到100一个一个试一遍,找出那个让 : posterior : 最大的就算解完这道题了。。。 : 谢谢指导!
|
K****n 发帖数: 5970 | 3 也是,好像MAP不难解
我又有点儿记混了,是不是说不是conjugate prior的时候,Bayesian inference比较
难积出
来,但是map还是比较好算的
【在 D****A 的大作中提到】 : 这个是应该有可能有解析解的,把公式都列出来,应用一下久违的高等数学,求个导 : 我这个外行都觉得不会太难吧,哈哈 : : function的 : |w)
|