Entropie (Informationstheorie)

Aus Wikipedia
Wexln zua: Navigation, Suach
Der Artikl is im Dialekt Obaboarisch gschrim worn.

Entropie is a Moß fian mittlan Informationsghoid oda aa Informationsdichtn vo oan Zeichnsystems. Da Begriff in da Informationstheorie is in Analogie zua Entropie in da Thermodynamik und Statistischn Mechanik entstandn. Beide Begriffe hom Gmoasamkeitn, de wo ma owa nua dann eindeitig erkennt, wenn Kenntnisse in beidn Fochgebietn vuahandn san.

As informationstheoretische Vaständnis vom Begriff Entropie gähd af Claude E. Shannon zruck und existiat seit etwa 1948. In dem Joar hod da Shannon a fundamentale Orbat A Mathematical Theory of Communication vaeffentlicht und hod damit de moderne Informationstheorie prägt.

De Bezeichnung H fia de Entropie kimmt aus ana Verwechslung mitm uaspringli gwäitn großn Eta (\Eta) fias Kunstwort εντροπία.[1]

Refarenz[VE | Weakln]

  1. Károly Simonyi: Kulturgeschichte der Physik. In: Urania-Verlag, Leipzig 1990, ISBN 3-332-00254-6, S. 372.