Distribució de probabilitat d'entropia màxima

Infotaula distribució de probabilitatDistribució de probabilitat d'entropia màxima
Tipusdistribució de probabilitat Modifica el valor a Wikidata

En estadística i teoria de la informació, una distribució de probabilitat d'entropia màxima té una entropia que és almenys tan gran com la de tots els altres membres d'una classe especificada de distribucions de probabilitat. D'acord amb el principi d'entropia màxima, si no se sap res sobre una distribució, excepte que pertany a una classe determinada (normalment es defineix en termes de propietats o mesures especificades), llavors la distribució amb la major entropia s'hauria de triar com a menys informativa. per defecte. La motivació és doble: primer, maximitzar l'entropia minimitza la quantitat d'informació prèvia incorporada a la distribució; en segon lloc, molts sistemes físics tendeixen a moure's cap a configuracions d'entropia màxima al llarg del temps.[1]

Definició d'entropia i entropia diferencial

Si X {\displaystyle X} és una variable aleatòria discreta amb distribució donada per

Pr ( X = x k ) = p k  for  k = 1 , 2 , {\displaystyle \operatorname {Pr} (X=x_{k})=p_{k}\quad {\mbox{ for }}k=1,2,\ldots }

llavors l'entropia de X {\displaystyle X} es defineix com


H ( X ) = k 1 p k log p k . {\displaystyle H(X)=-\sum _{k\geq 1}p_{k}\log p_{k}.}

Si X {\displaystyle X} és una variable aleatòria contínua amb densitat de probabilitat p ( x ) {\displaystyle p(x)} , llavors l'entropia diferencial de X {\displaystyle X} es defineix com [2]

H ( X ) = p ( x ) log p ( x ) d x . {\displaystyle H(X)=-\int _{-\infty }^{\infty }p(x)\log p(x)\,dx.}

La quantitat p ( x ) log p ( x ) {\displaystyle p(x)\log p(x)} s'entén que és zero sempre que p ( x ) = 0 {\displaystyle p(x)=0} .

Exemples

Tota distribució de probabilitat és trivialment una distribució de probabilitat d'entropia màxima sota la restricció que la distribució tingui la seva pròpia entropia. Per veure això, reescriu la densitat com p ( x ) = exp ( ln p ( x ) ) {\displaystyle p(x)=\exp {(\ln {p(x)})}} i compareu amb l'expressió del teorema anterior. En triar ln p ( x ) f ( x ) {\displaystyle \ln {p(x)}\rightarrow f(x)} ser la funció mesurable i

exp ( f ( x ) ) f ( x ) d x = H {\displaystyle \int \exp {(f(x))}f(x)dx=-H}

ser la constant, p ( x ) {\displaystyle p(x)} és la màxima distribució de probabilitat d'entropia sota la restricció

p ( x ) f ( x ) d x = H {\displaystyle \int p(x)f(x)dx=-H}

Els exemples no trivials són distribucions que estan subjectes a múltiples restriccions que són diferents de l'assignació de l'entropia. Sovint es troben començant amb el mateix procediment ln p ( x ) f ( x ) {\displaystyle \ln {p(x)}\rightarrow f(x)} i trobant-ho f ( x ) {\displaystyle f(x)} es pot separar en parts.

Una taula d'exemples de distribucions d'entropia màxima es dona a Lisman (1972) [3] i Park & Bera (2009).[4]

Referències

  1. «Maximum Entropy Distributions» (en anglès). https://ccrma.stanford.edu.+[Consulta: 9 juliol 2023].
  2. «Lecture 8: Information Theory and Maximum Entropy» (en anglès). http://pillowlab.princeton.edu.+[Consulta: 23 juliol 2009].
  3. Lisman, J. H. C.; van Zuylen, M. C. A. Statistica Neerlandica, 26, 1, 1972, pàg. 19–23. DOI: 10.1111/j.1467-9574.1972.tb00152.x.
  4. Park, Sung Y.; Bera, Anil K. «Còpia arxivada». Journal of Econometrics, 150, 2, 2009, pàg. 219–230. Arxivat de l'original el 2016-03-07. DOI: 10.1016/j.jeconom.2008.12.014 [Consulta: 2 juny 2011].