计算机(以及一般软件)的全部功能都基于二进制系统。一切都在低级别“翻译”为 0 和 1 位。
当进入网络领域时,数据通过物理方式传输,0-2 伏的范围代表第 0 位,而 3-5 伏的范围代表第 1 位。因此,理论上,数字信号由 2 个可能值 0 和 5 伏对应于位 0 和 1。
在调查了一些使用载波侦听的网络协议(如以太网)后,我发现该通道被“监听”,如果没有其他节点不传输,则传输开始。但是,可能有节点在此特定时刻传输 0 位,无法检测到。出于这个原因,正在对 96 位序列执行载波侦听,如果两个位都为 0,则这被接受为没有人在传输的事实。
问题:
如果(例如)选择的信号是 0 位 5 伏特和 1 位位 10 伏特,那么这些协议可能会显着提高性能,这可以仅在 1 位持续时间(1/96当前需要的时间)。这是真的吗?如果是,那为什么从一开始就没有将其视为解决方案?
我知道,选择 0 伏的唯一原因是 0 伏对应于地,这是一个可靠的绝对标度。