网站首页  词典首页

请输入您要查询的字词:

 

字词 信息量
类别 中英文字词句释义及详细解析
释义

信息量xìnxīliàng

〈名〉 信息的多少。

信息量xìnxīliàng

〈名〉信息的多少。
 ◇ 一些读者赶早排队买报,对增加信息量感到高兴。(解放日报.1987.10.11)
 ◇ 要加大信息量,增强时效性,加强深度报道,进一步做好典型宣传、热点引导和舆论监督工作。(人民日报.2000.12.30)

信息量xìnxīliànɡ

〈名〉信息的多少。

信息量

信息量

信息的数量。信息是无形的,但其数量却可以用数学方法描述和度量。信息论认为,任何一个通信之所以需要,是因为接收终端在收到信息之前不知道发送的信息是什么。接收终端对发送的信息具有“不确定性”。当获得了信息之后,这种“不确定性”就可以减少或消除。比如某个事物的“不确定性”是X,如果接收到的信息足以把“不确定性”消除,那么就表明收到的信息量是X。因此,信息数量的大小用消除“不确定性”的多少来表示,而事物的“不确定性”的多少,是用概率函数来描述的。在信息论中,采用“熵”这种量来刻划对象的不确定程度,用收到信息后熵的减少来标志不确定性的减少,以此作为信息量的度量。作为艺术信息的信息量是一个变量,其结构具有层次性,其传输具有多义性; 而且随着时间的推移,其内涵又会出现历史变异性。

☚ 信息库   信息容量 ☛

信息量amount of information

量度信息多少的物理量。信息的度量与它所代表的事件的随机性或各个事件发生的概率有关。信息论中利用统计力学中“熵”的概念,建立对信息的量度方法。假设有n个可能事件的消息,各个事件的概率分别为p1,p2,…,pn; H是每个消息的平均信息量,则:H =-KPilogαPi。式中K为常数,若K=1,α=2,则H的单位是比特(bit)。在计算机信息处理系统中,信息量常用输入量、储存量或输出量来表示。

信息量

信息量amount of information

信息的定量和度量。单位为比特(bit)。1928年,美国物理学家哈特来(R.V. L. Hartleg,1888~1959)在《信息传输》一文中首次提出信息量的概念,并用对数作为信息量的测度。他认为,信息与消息不同,信息是代码、符号、序列,而不是内容本身;信息是消息中不确定性的消除,消息中含有信息。多种多样的消息是信息的载体,消息究竟包含多少信息,应用消息出现的概率对数来计算,即I=log2n(比特)。这里n种不确定性假设是等概率的。美国数学家香农(C.E.Shannon,1916~)和维纳(N.Wiener,1894~1964)假设这几种不确定性的概率为不等,并对此作了深入系统的研究,并各自独立地提出了信息公式。他们证明:如果一个信源,可以产生的独立消息数为n,各消息的概率分别为ρ123,…,ρn,且有,则该信源具有的信息量
式中:K——常数,当对数取以2 为底时,则K=1;
H——信息量,单位为比特(bit)。
信息的定量描述,为各门学科技术的定量化研究开辟了一条新途径。

☚ 信息论   信息流 ☛
信息量

信息量

度量信息多少的量。仙农在1948年的《通信的数学理论》中首先提出信息的度量问题,并运用概率论确定并证明了信息量的数学表达式。如果某系统具有几种独立的可能状态(或结果):x1,x2,x3…xn,每一状态出现的概率分别为P(x1),P(x2),…P(Xn),且有概率之和等于1,那么,它的某个状态所具有的不定性数量为h(xi)=-logP(xi),i=1,2,…,n,而整个系统的各个状态所具有的平均不定性数量就是h(xi)的数学期望,记为 H(x),H(x)=P(xi)h(xi)=-。这正是统计热力学的熵函数,是一种不定性的度量。信息是一种被清除了的不定性,因此可看作是“负熵”。式中当对数的底取2,且n=2,P(x1)=P(x2)=1/2时,有H(x)=1,称为1比特。比特就是信息量的单位。可见任何一个事件,如果能够分解成n个等可能的二中择一事件,它的信息量就是n个比特。实际上,全部狭义信息论就是建立在公式h(x1)和H(x)的基础上的。从公式可以看出,出现概率越小,信息量越大;出现概率越大,信息量越小。这和生活中事情越出人意料信息量越大的感受是一致的,因此有人把信息称为“惊异测度”。信息量的度量可以用于提高通信效率。仙农信息量公式只能适用于语法信息度量,不能解决语义、语用信息的度量问题。关于广义信息度量以及信息度量一体化问题,目前都只处于摸索阶段。新闻学中,新闻信息量被理解为具有新鲜度(出现概率小)的事实的集合,新闻信息度量方法的研究还处于模糊定量阶段。

☚ 信息银行   信息模糊度 ☛
信息量

信息量

通过系统中传输和获得信息的数量,即对不确定性的一种衡量。在信息论中,消息是以随机事件为对象的,各种消息的本质在于消除不确定性。不确定性的量有两个方面的表述: 一个是信息熵H(x),它从信源角度考虑,是标志信源整体的平均不确定性的量; 另一个是信息量I(p),它从信宿的角度考虑,指信宿接受信息后消除不确定性的量。信息熵H(x)是信原整体不确定性的度量,是信源发出的信息量,它的公式是:

上式中Pi为信号符号从几种可能状态中出现第i种的概率,K为单位选择常数,当对数以2为底,信息熵的单位为比特。信息熵公式表明,信息是有序的量。信息量I(P)是当信原发送的信息熵H(x)全部被接受(没有受到干扰),也就是排除不确定性程度所需要信息的量度,这时I(P)=H(x)。信息量的统计公式虽然与信息熵公式完全相同,但含义有区别,信息量只有当信源输出符号被接收者收到后才有意义。信息量的单位通常仅适用于通信,并不能应用到信息过程的所有领域,广义的信息概念还没有一个统一的信息量的定义。

☚ 信息法   信息工程 ☛
信息量

信息量

信息所表达事物的深度和广度的容量。反映某一信息的价值和作用。信息量大小取决于表现信息内容的消息的不肯定程度。消息不肯定程度大,则发出的信息量就大,反之就小。信息量的单位叫比特(bit,是binary digits的缩写) 。一比特的信息量,是指含有两个独立均等概率状态的事件所具有的不确定性,能被全部消除所需要的信息。在计算机信息处理系统中,信息量常用输入量、贮存量和输出量来表示。如存贮空间的单位数、字符的数量、记录的数量等来表示。尽管不同的人对同一信息的反应程度不同,但信息量自有客观的评价标准。

☚ 信息流   信息库 ☛
信息量

信息量

对信息的度量,或指信息的多少。实质上是指在得到信息后,事物不确定性的减少程度。在信息论中,是用概率论的概念对信息进行度量的,因此又称为统计信息量。设某事物可能出现的状态的总数为n,每种状态出现的概率为Pj,i=1,2,…,n,则每种状态的信息量为: -log2Pi(bit),而任一种状态的平均信息量为:H反映了某事物的信息的多少,其值就是该事物的信息量。也常称H为不确定性或负熵。不确定性越大,则要排除这些不确定性所需的信息量就越大,两者是等价的。一般情形下,若一个事物可能出现的状态的总数越多,每种状态出现的概率越小 (即每种状态出现的概率越接近),那么,该事物的信息量就越大。

☚ 信息   标准化管理 ☛
信息量

信息量amount of information

在信息论中概率事件发生时的信息度量。离散事件的信息量可用下法计算:
如果所有的事件等概率发生,那么每个刺激事件(以比特为单位)所包含的信息Hs为:

Hs=log2N

这里N是概率相同事件的数目。
如果事件发生的概率不相等,那么每个刺激事件所包含的信息Hs为:
这里pi是事件i发生的概率。
上面求出的是单个事件所传递的信息量。一系列不同概率的事件所包含的平均信息量Have可用下式计算:


所以平均信息量以事件发生概率作为权重,是每个事件的信息量之和。
☚ 信息块   信息论心理美学 ☛
信息量

信息量amount of information

反映信息多少的度量。在信息论中用比特作为计算信息量的单位。

☚ 工程心理学   信息超负荷 ☛
00005533
随便看

 

文网收录3541549条中英文词条,其功能与新华字典、现代汉语词典、牛津高阶英汉词典等各类中英文词典类似,基本涵盖了全部常用中英文字词句的读音、释义及用法,是语言学习和写作的有利工具。

 

Copyright © 2004-2024 Ctoth.com All Rights Reserved
京ICP备2021023879号 更新时间:2025/8/12 17:21:37