(图片大小可自由调整)
2025年大学试题(计算机科学)-信息论与编码考试近5年真题集锦(频考类试题)带答案
第I卷
一.参考题库(共80题)
1.简述游程编码相关定义与步骤。
2.设多项式
为GF(2)上分组长度为15的一个循环码的生成多项式。
试求奇偶校验矩阵H。
3.信道容量C是I(X;Y)关于p(xi)的条件极大值。
4.消息(或称为符号)
5.若某一信源有N个符号,并且每个符号等概率出现,对这信源用最佳霍夫曼码进行二元编码,问当N=2i和N=2i+1(i是正整数)时,每个码字的长度等于多少?平均码长是多少?
6.两个实验X和Y,X={x1x2x3},Y={y1y2y3},l联合概率为。 (1)如果有人告诉你X和Y的实验结果,你得到的平均信息量是多少?? (2)如果有人告诉你Y的实验结果,你得到的平均信息量是多少?? (3)在已知Y实验结果的情况下,告诉你X的实验结果,你得到的平均信息量是多少?
7.设有12枚同值硬币,其中有一枚为假币。只知道假币的重量与真币的重量不同,但不知究竟是重还是轻。现用比较天平左右两边轻重的方法来测量。为了在天平上称出哪一枚是假币,试问至少必须称多少次?
8.试求以下各信道矩阵代表的信道的容量:
9.若有两个串接的离散信道,它们的信道矩阵都是 并设第一个信道的输入符号X∈{a1,a2,a3,a4}是等概率分布,求I(X;Z)和I(X;Y)并加以比较。
10.香农信源编码方法在进行编码时不需要预先计算每个码字的长度。
11.同时扔一对均匀的骰子,当得知“两骰子面朝上点数之和为2”或“面朝上点数之和为8”或“两骰子面朝上点数是3和4”时,试问这三种情况分别获得多少信息量?
12.N维统计独立均匀分布连续信源的熵是N维区域体积的对数。
13.求图中信道的信道容量及其最佳的输入概率分布,并求当e=0和1/2时的信道容量C的大小。
14.考虑一个信源的概率为{0.35,0.25,0.20,0.15,0.05}的DMS。 (1)给出此信源的霍夫曼码。 (2)计算出这些码子的平均码长。 (3)这个码的效率η是多少?
15.四进制、八进制脉冲所含信息量分别是二进制脉冲的()倍。
16.当随即变量X和Y相互独立时,条件熵等于信源熵。
17.有两个二元随机变量X和Y,它们的联合概率为 并定义另一随机变量Z=XY(一般乘积)。试计算:
18.有一信源,它有六个可能的输出,其概率分布如下表所示,表中给出了对应的码A、B、C、D、E和F。 (1)求这些码中哪些是惟一可译码; (2)求哪些码是非延长码(即时码); (3)求对所有惟一可译码求出其平均码长L。
19.信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为()信道。
20.多用户信道可以分成几种最基本的类型:()、()和相关信源信道。
21.设离散无忆信源,其发出的消息为,求 (1)此消息的自信息量是多少? (2)在此消息中平均每个符号携带的信息量是多少?
22.单符号离散信源的自信息和信源熵都具有非负性。
23.考虑GF(2)上的下列生成矩阵
构造该码的标准阵列。
24.离散无噪信道的信道容量等于log2n,其中n是信源X的消息个数。
25.两个相互独立的随机变量的联合自信息量等于()。
26.在已知收码R的条件下找出可能性最大的发码作为译码估计值,这种译码方法叫做最佳译码。
27.在连续信源中,根据差熵、条件差熵和联合差熵的定义,证明 (1)h(X|Y)≤h(X),当且仅当X和Y统计独立时等号成立; (2)h(X1X2...XN)≤h(X1)+h(X2)+h(XN),当且仅当X1X2...XN彼此统计独立时等式成立。
28.简述二元哈夫曼编码的编码步骤。
29.计算概率分布函数为的均匀分布随机变量X的微分熵H(X)。画出H(X)相对于参数a(0.1〈a〈10)的平面图,并对结果进行评论。
30.简述离散信源和连续信源的最大熵定理。
31.广播信道是只有()的信道。
32.信源编码是提高通信有效性为目的的编码。
33.简述连续信源的熵的定义。
34.简述狭义信息论、广义信息论、一般信息论研究的领域。
35.求下列码的生成多项式和最小距离: (1)RS(15,11)码。 (2)RS(15,7)码。 (3)RS(31,21)码。
36.设二元霍夫曼码为(00,01,10,11)和(0,10,110,111),求出可以编得这样霍夫曼码的信源的所有概率分布。
37.单符号离散信源的联合自信息量和条件自信息量都是非负的和单调递减的。
38.简述平均互信息量关于信源概率和信道转移概率的凸性定理。
39.自信息量的单位一般有()。
40.有两个二元随机变量X和Y,它们的联合概率为: 并定义另一随机变量Z?=?XY(一般乘积),试计