1 / 121
文档名称:

信息测量系统及若干问题研析.pdf

格式:pdf   页数:121
下载后只包含 1 个 PDF 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

信息测量系统及若干问题研析.pdf

上传人:164922429 2016/3/18 文件大小:0 KB

下载得到文件列表

信息测量系统及若干问题研析.pdf

相关文档

文档介绍

文档介绍:I 华中科技大学博士学位论文摘要鉴于现行测量系统缺乏一个相对统一的理论基础问题,本文以熵集(各类熵、信息量、熵产生等)为基本概念,提出一种信息直接测量的思想和方法,并构建以信息获取最大化为原则的信息测量系统。这不仅可以避免以信号为基础的测量过程存在的信息损失问题,而且为实现一种基于熵的测量理论框架奠定了基础。论文的主要工作如下: 论文首先以信息观点描述测控系统,指出贯穿测控对象、测量、决策、控制环节组成测控系统的是信息流,在此基础上,提出信息测量系统的基本模型及其数学表达;阐述与分析在考虑误差情况下的信息测量原理;并对信息测量若干的特性进行研究与讨论。然后,在信息能量的框架下对信息测量系统中的信源进行研究。论证热力学熵、统计力学熵以及信息熵本质的一致性;证明非平衡体系中最大信息熵与最大熵产生率的等价性;进而得到在最大熵产生条件下, 信源的输出为一个等效功率源,为诸多被测非电量与传感器或后续电路间的耦合起到桥梁作用。讨论信息能量主动型和信息能量被动型两种信源与传感器之间的耦合关系,并得出具有普遍意义的信息传递过程功率匹配准则。其次,研究基于线性网络的信息分析与处理方法。讨论有噪情况下的线性网络测量信息的变化规律,并对不同结构线性网络的熵描述进行讨论。其中,为了更加全面地描述信息通过线性网络的传递规律,在线性网络熵定理基础上,进一步推证线性网络测量信息定理。将线性网络的信息处理方法分别在选频网络、 Z 变换过程以及信息量化三个示例中作应用性的讨论。同时,对基于最大熵的信息处理算法进行研究。对熵功率谱估计和独立分量分析中的最大熵问题作一般讨论,提出信源熵模糊聚类算法,证明该算法的收敛性, 构造出目标函数,采用最大熵模糊聚类算法有效地实现数据集分类;对混合数据进行独立分量分析,仿真结果表明采用最大熵独立分量分离效果较好。 II 华中科技大学博士学位论文最后,研究信息测量误差问题,得到误差熵与误差分布、噪声功率和不确定度之间均存在对数关系。为信息测量系统的相关性能评价打下基础。关键词: 信息测量系统信源熵信息量熵产生信源算法最大熵 III 华中科技大学博士学位论文 Abstract As there have been no a rela tively unified theory in curr ent measurement systems, in this dissertation, the thoughs and methods of direct information measurement are proposed based on entropy sets includi ng various entropies, inform ation amount and entropy production. An information measurement system is built according to the principle of maximum information acquisition. It not only avoids the information loss problem in measurement process based on the signal, and achieves a theoretica l framework based on entropy measurement basis. The major contributi ons of this disserta tion are specifically stated as follows. This dissertation first desc ribes the measurement system and proposes the block diagram of the information-driven measurem ent system, with which the mathematical model of this system is built. And these basic characteristics of this information measurement system are summarized through discussing the relati onship range among the measuring information amount, the erro r entropy and the entropy of source. Second, the essence of the Clausius entr