传输数据时的标准偏差

时间:2010-10-18 17:24:16

标签: networking computer-science communication standard-deviation

我正在解决Gallager的数据网络中的一些例子,我并不完全理解这个特殊的问题。问题如下:

假设链路上的预期帧长度为1000位,标准差为500位  找出在9600bps链路上传输一百万帧所需时间的预期时间和标准差。  后续问题是:帧的传输速率通常定义为预期传输时间的倒数。使用您在上一个问题中找到的结果,讨论这个定义是否合理。

我的尝试如下:

发送一帧的时间是:1000/9600 = 0.104秒 因此,发送百万帧的时间是= 104,000秒

我不明白第二部分,它要求找到标准偏差和后续问题。当我们说标准偏差为500比特时,我也不明白这是什么意思,这是不是意味着错误损失,这是50%?

这不是作业问题。我有几天的期中考试,我正在解决这些问题,以提高我对这个问题的把握。

任何帮助/提示都将不胜感激

谢谢, 钱德尔

1 个答案:

答案 0 :(得分:1)

假设分布正常,那么你有一个sum of normally distributed variables。在这种情况下,期望值和方差都很容易计算,您可以添加它们。

1 frame ~ N(1000,500)
1 mil frams ~ (1E9,5E8)

获得你将两者分成9600的时间。

E[time] ~= 104167 seconds
std[time] ~= 52083 seconds

一个细节是,他们使用正态分布是愚蠢的,因为帧具有负比特存在一些非零概率。因此,有一些非零的机会你会在负时间发送所有(负)位......由于它们没有指定分布,我看不出它们本来可能有什么意思。