无序度并不等于事物的混乱程度
熵 Entropy
简要释义:系统的无序程度或不确定度的度量
在热力学中,熵和温度、内能等类似,是描述物体热力学状态的一个物理量。在可逆过程中,物体的熵增等于其吸收的热量与温度之比的累积变化。对于孤立系统的自发过程,熵的变化总是朝着增大的方向。
在统计物理学中,熵描述系统的无序程度,是熵的热力学定义的延展。玻尔兹曼(Ludwig Boltzmann)于1872年提出了熵的统计物理学定义,即熵正比于系统在给定宏观状态下可取的微观状态数的对数,这种定义称为玻尔兹曼熵。宏观状态指系统的内能、体积、粒子数等热力学状态,微观状态则指系统中每个分子的位置、动量等力学状态。
在信息论中,熵是随机变量所含的不确定度或信息的度量。由香农(Claude Shannon)在其1948年的论文《通信的数学理论》(A Mathematical Theory of Communication)中首次提出,又称为信息熵(Information entropy)。与吉布斯熵的定义类似,一个随机变量的信息熵等于其概率分布的负对数的平均值。随机变量中,出现概率越小的事件蕴含的信息熵越大。
————
贡献者和撰写者:黄河清;
审阅者:陈飞樾 李雅伦
黄河清是中文互联网编舟记第一期的成员,他本科毕业于北京大学物理学院,博士毕业于哥伦比亚大学,研究方向是微纳米光学/光子学,现就职于贝尔实验室,对科普以及科学哲学的社会影响感兴趣。
评论区
共 1 条评论热门最新