M*******d 发帖数: 176 | |
W***o 发帖数: 6519 | 2 regularization parameter lamda
loss function values
decay, and
alpha |
M*******d 发帖数: 176 | 3 aren't these model variables
regularization parameter lamda
【在 W***o 的大作中提到】 : regularization parameter lamda : loss function values : decay, and : alpha
|
m**c 发帖数: 1012 | 4 They could be endogenous
[在 MoonChild () 的大作中提到:]
:aren't these model variables
:regularization parameter lamda |
k*****u 发帖数: 1688 | 5 本身应该没有超参数 就是MLE或者Iteratively reweighted least squares,当然迭
代的时候有初始值和收敛极限
sklearn好像用的是台湾那个大哥的liblinear,所以有超参数 |