为了正常的体验网站,请在浏览器设置里面开启Javascript功能!

信息论与编码答案

2017-09-29 4页 doc 77KB 175阅读

用户头像

is_888153

暂无简介

举报
信息论与编码答案信息论与编码答案 一、填空 1. 1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从 而创立了信息论。 2. 人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的 信息。 3. 信息的 可度量性 是建立信息论的基础。 4. 统计度量 是信息度量最常用的方法。 5. 熵 是香农信息论最基本最重要的概念。 6. 事物的不确定度是用时间统计发生 概率的对数 来描述的。 7、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。 8、一个随机事件发生某一结果...
信息论与编码答案
信息论与编码 一、填空 1. 1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从 而创立了信息论。 2. 人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的 信息。 3. 信息的 可度量性 是建立信息论的基础。 4. 统计度量 是信息度量最常用的方法。 5. 熵 是香农信息论最基本最重要的概念。 6. 事物的不确定度是用时间统计发生 概率的对数 来描述的。 7、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。 8、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。 9、自信息量的单位一般有 比特、奈特和哈特 。 10、必然事件的自信息是 0 。 11、不可能事件的自信息量是 ? 。 12、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。 13、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。 14、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍 。 limH(X/XX?X)N12N,1H,N,,,15、离散平稳有记忆信源的极限熵,。 16、对于n元m阶马尔可夫信源,其状态空间共有 nm 个不同的状态。 17、一维连续随即变量X在[a,b]区间内均匀分布时,其信源熵为 log2(b-a) 。 1log2,eP2218、平均功率为P的高斯分布的连续信源,其信源熵,Hc(X)=。 19、对于限峰值功率的连续信源,当概率密度 均匀分布 时连续信源熵具有最大值。 20、对于限平均功率的一维连续信源,当概率密度 高斯分布 时,信源熵有最大值
/
本文档为【信息论与编码答案】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。 本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。 网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。

历史搜索

    清空历史搜索