i*****r 发帖数: 1302 | 1 bayesian是prior,posterior这类东西么? 怎么用在optimization中? black-litterman
不就是么? 操最讨厌bayesian这个词看到就tmd烦 | w**********y 发帖数: 1691 | 2 老大,你跟bayesian有啥仇啊?慢慢看呗..虽然统计界有几大学派之争,但是bayes的思想
基本已经被广泛接受了.
至少你能明白MLE(maximum likelihood estimator)和MAP(maximum aposteriori
Estimator)就ok了.思想不同框架不同而已.所有的推导过程类似..
看看这里.
http://www-users.itlabs.umn.edu/classes/Fall-2008/csci5525/notes/estimate.pdf | i*****r 发帖数: 1302 | 3 靠,这个得要我命
我是实用派非搞学术的,只要个general idea 稍微编点程序都行,optimziation得给我
明确的objective,subjective function. black litterman照着paper也能编一下,再复
杂的像这种的就算了,一眼望去全是数学公式到最后说什么也不知道有意思么
其实我的问题很简单,比如我现在有10个股票的数据,bayesian optimization,或者
beyesian whatever到底想干嘛? 能干嘛?
【在 w**********y 的大作中提到】 : 老大,你跟bayesian有啥仇啊?慢慢看呗..虽然统计界有几大学派之争,但是bayes的思想 : 基本已经被广泛接受了. : 至少你能明白MLE(maximum likelihood estimator)和MAP(maximum aposteriori : Estimator)就ok了.思想不同框架不同而已.所有的推导过程类似.. : 看看这里. : http://www-users.itlabs.umn.edu/classes/Fall-2008/csci5525/notes/estimate.pdf
| w**********y 发帖数: 1691 | 4
好吧.咱照简单的说.你有GS的10天的log return.你的model assumes它们是iid, N(mu,
1).你现在就想估计mu.
ok,传统统计学告诉你,mu的最好估计就是MLE,就是这10个值记得平均值;
bayes的人就要问你,ok,what is your prior distribution of mu?
知道这有什么不同么?
传统学派,mu是个固定的值,但是unknown;
bayes学派,mu也是random variable,and you have prior info. 你的prior info可以
是你以前的经验,专家的经验,先验的数据等等等等..但是,只要有这些信息就是有用的.
..
那么现在你说,mu的先验分布(apiror dist.)是N(5,1).现在你给出的mu的估计,不再是
传统的point estimator或者confidence interval,而是一个posterior dist..因为mu
是random的!
当然了让posterior distribution最大的值,就称为MAP..
这时候你的估计不再是平均值..而是
【在 i*****r 的大作中提到】 : 靠,这个得要我命 : 我是实用派非搞学术的,只要个general idea 稍微编点程序都行,optimziation得给我 : 明确的objective,subjective function. black litterman照着paper也能编一下,再复 : 杂的像这种的就算了,一眼望去全是数学公式到最后说什么也不知道有意思么 : 其实我的问题很简单,比如我现在有10个股票的数据,bayesian optimization,或者 : beyesian whatever到底想干嘛? 能干嘛?
| i*****r 发帖数: 1302 | 5 很奇妙
这样的话需要增加一个主观的prior input
运用在optimization中只不过是将mu,stdev换成conditional的了.和black litterman
基本上是一回事...
太搞了 | p****u 发帖数: 2596 | 6 我个人觉得股票里面这种东西没有什么用,你根本就没法得到足够有用的input参数吗
,弄这么复杂优化有什么用啊。学术界很多忽悠,不一定有用。我反正是这种推一堆公
式,然后编几个定理出来的paper一般都不怎么用。
【在 i*****r 的大作中提到】 : 靠,这个得要我命 : 我是实用派非搞学术的,只要个general idea 稍微编点程序都行,optimziation得给我 : 明确的objective,subjective function. black litterman照着paper也能编一下,再复 : 杂的像这种的就算了,一眼望去全是数学公式到最后说什么也不知道有意思么 : 其实我的问题很简单,比如我现在有10个股票的数据,bayesian optimization,或者 : beyesian whatever到底想干嘛? 能干嘛?
| i*****r 发帖数: 1302 | 7 很有用,忽悠是大学问啊...
【在 p****u 的大作中提到】 : 我个人觉得股票里面这种东西没有什么用,你根本就没法得到足够有用的input参数吗 : ,弄这么复杂优化有什么用啊。学术界很多忽悠,不一定有用。我反正是这种推一堆公 : 式,然后编几个定理出来的paper一般都不怎么用。
| p****u 发帖数: 2596 | 8 同意,会呼游最重要。
【在 i*****r 的大作中提到】 : 很有用,忽悠是大学问啊...
| Q***5 发帖数: 994 | 9 subjective function 是啥东西?
【在 i*****r 的大作中提到】 : 靠,这个得要我命 : 我是实用派非搞学术的,只要个general idea 稍微编点程序都行,optimziation得给我 : 明确的objective,subjective function. black litterman照着paper也能编一下,再复 : 杂的像这种的就算了,一眼望去全是数学公式到最后说什么也不知道有意思么 : 其实我的问题很简单,比如我现在有10个股票的数据,bayesian optimization,或者 : beyesian whatever到底想干嘛? 能干嘛?
| f**********r 发帖数: 2137 | 10 i think he is talking about the constraints - s.t.
【在 Q***5 的大作中提到】 : subjective function 是啥东西?
| f**********r 发帖数: 2137 | 11 bayesian's basic idea is your model comes with a prob, no a fixed thing
litterman
【在 i*****r 的大作中提到】 : bayesian是prior,posterior这类东西么? 怎么用在optimization中? black-litterman : 不就是么? 操最讨厌bayesian这个词看到就tmd烦
| e*******e 发帖数: 1144 | 12 Bayesian Optimization实际上是比较奇怪的东西
因为真正的Bayesian不应该做Optimization
具体如下(个人见解):
==========================================================
是否使用prior不是区分Bayesian和Frequentist的关键
他们真正的区别是 是否相信存在一个(未知的)真参数
Bayesian把likelihood和prior放一起作为参数的posterior
Frequentist把lost和regularization penalty放一起作为参数的regularized loss
这两个框架基本是一一对应的:
一个likelihood对一个lost
一个prior对一个regularization penalty
而Bayesian和Frequentist真正的区别是之后做什么
Bayesian假设不存在“真正”的参数(比如你要估计那个均值\mu),只有一个
posterior distribution over \mu。所以真正的Bayesian不会去做MAP(M
【在 w**********y 的大作中提到】 : : 好吧.咱照简单的说.你有GS的10天的log return.你的model assumes它们是iid, N(mu, : 1).你现在就想估计mu. : ok,传统统计学告诉你,mu的最好估计就是MLE,就是这10个值记得平均值; : bayes的人就要问你,ok,what is your prior distribution of mu? : 知道这有什么不同么? : 传统学派,mu是个固定的值,但是unknown; : bayes学派,mu也是random variable,and you have prior info. 你的prior info可以 : 是你以前的经验,专家的经验,先验的数据等等等等..但是,只要有这些信息就是有用的. : ..
| i*****r 发帖数: 1302 | 13 拿着posterior做积分有什么用啊?
另外,和mean-variance相比,不就是替换了原来的unconditonal mean/sigma么?
【在 e*******e 的大作中提到】 : Bayesian Optimization实际上是比较奇怪的东西 : 因为真正的Bayesian不应该做Optimization : 具体如下(个人见解): : ========================================================== : 是否使用prior不是区分Bayesian和Frequentist的关键 : 他们真正的区别是 是否相信存在一个(未知的)真参数 : Bayesian把likelihood和prior放一起作为参数的posterior : Frequentist把lost和regularization penalty放一起作为参数的regularized loss : 这两个框架基本是一一对应的: : 一个likelihood对一个lost
| k**u 发帖数: 698 | 14 赞
mu,
的.
【在 w**********y 的大作中提到】 : : 好吧.咱照简单的说.你有GS的10天的log return.你的model assumes它们是iid, N(mu, : 1).你现在就想估计mu. : ok,传统统计学告诉你,mu的最好估计就是MLE,就是这10个值记得平均值; : bayes的人就要问你,ok,what is your prior distribution of mu? : 知道这有什么不同么? : 传统学派,mu是个固定的值,但是unknown; : bayes学派,mu也是random variable,and you have prior info. 你的prior info可以 : 是你以前的经验,专家的经验,先验的数据等等等等..但是,只要有这些信息就是有用的. : ..
|
|