Entropie (Informationstheorie)

Aus Wikipedia
Der Artikl is im Dialekt Obaboarisch gschriem worn.

Entropie is a Moß fian mittlan Informationsghoid oda aa Informationsdichtn vo oan Zeichnsystems. Da Begriff in da Informationstheorie is in Analogie zua Entropie in da Thermodynamik und Statistischn Mechanik entstandn. Beide Begriffe hom Gmoasamkeitn, de wo ma owa nua dann eindeitig erkennt, wenn Kenntnisse in beidn Fochgebietn vuahandn san.

As informationstheoretische Vaständnis vom Begriff Entropie gähd af Claude E. Shannon zruck und existiat seit etwa 1948. In dem Joar hod da Shannon a fundamentale Orbat A Mathematical Theory of Communication vaeffentlicht und hod damit de moderne Informationstheorie prägt.

De Bezeichnung fia de Entropie kimmt aus ana Verwechslung mitm uaspringli gwejdn großn Eta () fias Kunstwort εντροπία.[1]

Refarenz[Werkeln | Am Gwëntext werkeln]

  1. Károly Simonyi: Kulturgeschichte der Physik. In: Urania-Verlag, Leipzig 1990, ISBN 3-332-00254-6, S. 372.