我知道在使用时间序列数据时,我必须使用RNN
这里的亮点是神经元再次接收其输出作为输入,因此它们可以考虑上一步。
但我不明白的是:为什么常规的神经网络不能做同样的事情?例如,当我提供类似的订单时
0, 1, 2, 3, 4, 5, 6, 7, ..
NN 应该注册其中有一个模式。如果这些数字代表天或秒,那并不重要。那么,为什么现在需要自环神经元来这样做呢?
我知道在使用时间序列数据时,我必须使用RNN
这里的亮点是神经元再次接收其输出作为输入,因此它们可以考虑上一步。
但我不明白的是:为什么常规的神经网络不能做同样的事情?例如,当我提供类似的订单时
0, 1, 2, 3, 4, 5, 6, 7, ..
NN 应该注册其中有一个模式。如果这些数字代表天或秒,那并不重要。那么,为什么现在需要自环神经元来这样做呢?
需要明确的是,RNN 不是必需的,因为存在其他选项。然而,RNN 很有用,因为它们隐含地处理输入之间的时间关系。
常规神经网络是幂等的,这意味着可以多次传递相同的输入并计算相同的输出(显然,如果网络同时没有更新)。
这种幂等性意味着常规神经网络不能隐含地“看到”时间模式。为此,他们需要按照您的建议提供时间信息。这实际上是变形金刚实现的!通过在输入之上提供时间嵌入,它始终是一个从时间信息中学习的常规神经网络。