假设输入信号和离散输出。信号可以每秒 1000 次越界,但希望离散输出最多每 15 秒变化一次。见下图:
UU是信号,AA是比较器的输出,BB是过滤后的输出。目标是过滤掉区域的输出变化RR.
是否有理论来处理限制附近的波动,例如区域RR?
在这一点上,我正在考虑一种算法,其中状态仅在信号持续一段时间时才会改变TT,这种算法有名字吗?
在电子学中,施密特触发器通过使用两个不同的阈值(您称之为极限)将模拟信号转换为数字信号,一个用于输出状态从 0 变为 1,另一个用于从 1 变为 0。第一个是稍高一些,因此如果输入在这两个阈值之间波动,则输出不会发生变化。不愿改变状态的一般概念称为滞后。
它还可以帮助首先对信号进行低通滤波,这通常用于消除机械开关的抖动,以消除图像中的波动。