字词 | 信息量 |
类别 | 中英文字词句释义及详细解析 |
释义 | 信息量xìnxīliàng〈名〉 信息的多少。 信息量xìnxīliàng〈名〉信息的多少。 信息量xìnxīliànɡ〈名〉信息的多少。 信息量 信息量信息的数量。信息是无形的,但其数量却可以用数学方法描述和度量。信息论认为,任何一个通信之所以需要,是因为接收终端在收到信息之前不知道发送的信息是什么。接收终端对发送的信息具有“不确定性”。当获得了信息之后,这种“不确定性”就可以减少或消除。比如某个事物的“不确定性”是X,如果接收到的信息足以把“不确定性”消除,那么就表明收到的信息量是X。因此,信息数量的大小用消除“不确定性”的多少来表示,而事物的“不确定性”的多少,是用概率函数来描述的。在信息论中,采用“熵”这种量来刻划对象的不确定程度,用收到信息后熵的减少来标志不确定性的减少,以此作为信息量的度量。作为艺术信息的信息量是一个变量,其结构具有层次性,其传输具有多义性; 而且随着时间的推移,其内涵又会出现历史变异性。 ☚ 信息库 信息容量 ☛ 信息量amount of information量度信息多少的物理量。信息的度量与它所代表的事件的随机性或各个事件发生的概率有关。信息论中利用统计力学中“熵”的概念,建立对信息的量度方法。假设有n个可能事件的消息,各个事件的概率分别为p1,p2,…,pn; H是每个消息的平均信息量,则:H =-K 信息量 信息量amount of information信息的定量和度量。单位为比特(bit)。1928年,美国物理学家哈特来(R.V. L. Hartleg,1888~1959)在《信息传输》一文中首次提出信息量的概念,并用对数作为信息量的测度。他认为,信息与消息不同,信息是代码、符号、序列,而不是内容本身;信息是消息中不确定性的消除,消息中含有信息。多种多样的消息是信息的载体,消息究竟包含多少信息,应用消息出现的概率对数来计算,即I=log2n(比特)。这里n种不确定性假设是等概率的。美国数学家香农(C.E.Shannon,1916~)和维纳(N.Wiener,1894~1964)假设这几种不确定性的概率为不等,并对此作了深入系统的研究,并各自独立地提出了信息公式。他们证明:如果一个信源,可以产生的独立消息数为n,各消息的概率分别为ρ1,ρ2,ρ3,…,ρn,且有 ☚ 信息论 信息流 ☛ 信息量 信息量度量信息多少的量。仙农在1948年的《通信的数学理论》中首先提出信息的度量问题,并运用概率论确定并证明了信息量的数学表达式。如果某系统具有几种独立的可能状态(或结果):x1,x2,x3…xn,每一状态出现的概率分别为P(x1),P(x2),…P(Xn),且有概率之和等于1,那么,它的某个状态所具有的不定性数量为h(xi)=-logP(xi),i=1,2,…,n,而整个系统的各个状态所具有的平均不定性数量就是h(xi)的数学期望,记为 H(x),H(x)= ☚ 信息银行 信息模糊度 ☛ 信息量 信息量通过系统中传输和获得信息的数量,即对不确定性的一种衡量。在信息论中,消息是以随机事件为对象的,各种消息的本质在于消除不确定性。不确定性的量有两个方面的表述: 一个是信息熵H(x),它从信源角度考虑,是标志信源整体的平均不确定性的量; 另一个是信息量I(p),它从信宿的角度考虑,指信宿接受信息后消除不确定性的量。信息熵H(x)是信原整体不确定性的度量,是信源发出的信息量,它的公式是: ☚ 信息法 信息工程 ☛ 信息量 信息量信息所表达事物的深度和广度的容量。反映某一信息的价值和作用。信息量大小取决于表现信息内容的消息的不肯定程度。消息不肯定程度大,则发出的信息量就大,反之就小。信息量的单位叫比特(bit,是binary digits的缩写) 。一比特的信息量,是指含有两个独立均等概率状态的事件所具有的不确定性,能被全部消除所需要的信息。在计算机信息处理系统中,信息量常用输入量、贮存量和输出量来表示。如存贮空间的单位数、字符的数量、记录的数量等来表示。尽管不同的人对同一信息的反应程度不同,但信息量自有客观的评价标准。 ☚ 信息流 信息库 ☛ 信息量 信息量对信息的度量,或指信息的多少。实质上是指在得到信息后,事物不确定性的减少程度。在信息论中,是用概率论的概念对信息进行度量的,因此又称为统计信息量。设某事物可能出现的状态的总数为n,每种状态出现的概率为Pj,i=1,2,…,n,则每种状态的信息量为: -log2Pi(bit),而任一种状态的平均信息量为: ☚ 信息 标准化管理 ☛ 信息量 信息量amount of information在信息论中概率事件发生时的信息度量。离散事件的信息量可用下法计算: Hs=log2N 这里N是概率相同事件的数目。如果事件发生的概率不相等,那么每个刺激事件所包含的信息Hs为: ![]() 这里pi是事件i发生的概率。 上面求出的是单个事件所传递的信息量。一系列不同概率的事件所包含的平均信息量Have可用下式计算: 所以平均信息量以事件发生概率作为权重,是每个事件的信息量之和。 ☚ 信息块 信息论心理美学 ☛ 信息量 信息量amount of information反映信息多少的度量。在信息论中用比特作为计算信息量的单位。 ☚ 工程心理学 信息超负荷 ☛ |
随便看 |
|
文网收录3541549条中英文词条,其功能与新华字典、现代汉语词典、牛津高阶英汉词典等各类中英文词典类似,基本涵盖了全部常用中英文字词句的读音、释义及用法,是语言学习和写作的有利工具。