Informationstheorie

Aus Wikipedia
Wexln zua: Navigation, Suach

De Informationstheorie is a mathematische Theorie ausm Bereich vo da Woascheinlichkeitstheorie und Statistik, wo afn Claude Shannon zruggähd.

Se befosst si mit Begriffn wia Information, Entropie, Informationsiwatrogung, Datenkompression, Kodierung und vawandte Themen.

Nebm da Mathematik, Informatik und Nachrichtentechnik wead de theoretische Betrochtung vo Kommunikation duach de Informationstheorie aa zua Beschreibung vo Kommunikationssystemen in vuin andan Bereichen eigsetzt.

De Shannonsche Theorie vawend an Begriff vo da Entropie, um de Informationsdichtn (Informationsghoid) vo Nochrichten z charakterisian. Je gleichfeamiga a Nochricht afbaut is, desto häha is ia Entropie. Grundlegend fia de Informationstheorie is nebm an Entropiebegriff as Shannon-Hartley-Gesetz, nach Claude Elwood Shannon und Ralph Hartley, wo de theoretische Obagrenz vo da Kanalkapazität, des is de maximale Dateniwatrogungsratn ohne Iwatrogungsfella, vo am Iwatrogungskanal in Obhängigkeit vo Bandbroadn und Signal-Rausch-Verhäitnis beschreibt.

Im Netz[VE | Weakln]