Entropie als Informationsmaß

 
 

Entropie gilt als eine schwierig zu vermittelnde physikalische Größe, da sie sich einer direkten Anschaulichkeit zu entziehen scheint. Wenn man sich diesem Begriff jedoch von einer informations­ theoretischen Perspektive nähert, werden viele Zusammenhänge leichter verständlich.

Wohl kaum ein physikalischer Begriff ist so schwierig zu vermitteln wie der der Entropie. Im Gegensatz zu Größen wie z.B. Energie und Impuls, die an Einzel- systemen messbar sind und eine gewisse Anschaulichkeit besitzen, ist Entropie als „Maß für Unordnung“ komplexer Systeme sehr viel schwerer fassbar. Der bisweilen sogar mystifizierte Begriff der Entropie ist in der Anfangszeit selbst von Physikern nur zögerlich akzeptiert worden. Als Claude Shannon 1948 einen theoretischen Grenzwert für den Informationsverlust in Telefonleitungen fand und nach einer passenden Bezeichnung für diese Größe suchte, soll ihm John von Neumann geraten haben:

„You should call it entropy. [...] Nobody knows what entropy really is, so in a debate you will always have the advantage.“

Entmystifizierung eines schwierig zu vermittelnden Begriffs 

Autor: Prof. Dr. Haye Hinrichsen