我对线性回归中的以下约束参数估计感兴趣,
其中模型是,并且是惩罚函数。从最小化问题可以看出,导致套索问题有一些成熟的算法,例如 LARS。我记得在一次会议上,有人谈到使用 lars 表示的一般形式。所以我的问题是关于我可以实现(希望在 R 中)以获得最小化问题的解决方案的最有效算法。
我对线性回归中的以下约束参数估计感兴趣,
Zou 和 Li在非凹惩罚似然模型中的一步稀疏估计中描述的所谓局部线性逼近(LLA) 算法的某些凹选择的优化问题。具体来说,对于 和一个凹函数,它在上是可微的。
该算法通过迭代求解加权惩罚优化问题来工作。在迭代中,解为 每次迭代都可以使用例如R或其他计算套索解决方案并允许权重的标准实现来解决。
glmnetlars
该算法是一种 MM 算法(实际上在某些情况下可以解释为 EM 算法),并且在论文中表明它具有下降属性。给出了精确的收敛结果。
顺便说一句,该论文确实提倡一步估计器,其中算法的一步仅取自 OLS 解决方案。这在计算上更便宜,但在统计上与运行算法直到收敛一样有效。