模拟数据生成过程

机器算法验证 模拟 自相关
2022-03-14 20:51:22

假设我想模拟具有 ma(1) 误差的非线性回归的数据生成过程。因此,无需赘述许多不必要的细节,该模型是

yt=f(xt,xt1,...,xt0,β1,β2)+ϵt+θϵt1

在哪里ϵtN(0,σ2).

这样做的原因是我想测试一些非线性估计算法来比较它们的鲁棒性和速度。其中可能有 4 个,但这也不重要。

我的困惑如下。鉴于一些β1β2还有一些θ,我可以非常直接地生成 DGP,因为我有xts。

但是我该如何处理缩放噪音。我的意思是,我怎么知道什么是合理的值σ2是?例如,如果我使用太小的σ2,那么我的错误项最终可能可以忽略不计,并且我以确定性关系结束。

另一方面,如果我使用太大的σ2,它最终可能会主导其他两个术语,因此我最终会生成一个 MA(1) 模型。我不清楚如何知道规模σ2应该。

2个回答

我会从无法解释的分数方差开始,然后想想什么对你的领域来说是一个合理的价值。也许在您的领域中,您希望模型具有 20% 的 VFU。在这种情况下,您可以使用σ20.2Var[yt]对于错误。

刚刚看到你的问题......请看看如何为给定的一个随机时间序列,包括所有趋势?对于我关于如何模拟给定 DGF 的系列的建议(阅读模型表格!)。

我从一个有用的模型中确定误差方差,然后将其与估计的模型参数结合使用来启动模拟。

问候一位时间序列爱好者......