Claude Shannons 1948 veröffentlichte Arbeit „A mathematical theory of communication“ gilt heute als Beginn der Informationstheorie, unter anderem wegen des dort erstmals definierten Begriffs der Entropie. Am Beginn der Arbeit stand die Definition des Bits als Informationseinheit, und die Definition von Kommunikationssystemen entsprechend dem folgenden Schema: Im Weiteren unterscheidet Shannon diskrete, stetige und gemischte Systeme.…

In der Mathematik gibt es unter anderem maßtheoretische Entropie, topologische Entropie, Volumenentropie, geometrische Entropie und noch einiges mehr. xkcd ist jetzt aufgefallen, dass der Begriff „Dynamische Entropie“ noch nicht belegt ist: Link: https://imgs.xkcd.com/comics/dynamic_entropy.png

Das heutige Google-Doodle zeigt Claude Shannon beim Jonglieren mit den Binärzahlen 0 und 1: Anlaß ist Shannons hundertster Geburtstag heute. Seine Schrift “A mathematical theory of communication” findet sich inzwischen nicht nur online, sie hat sogar einen eigenen Wikipedia-Artikel. Zur Bedeutung dieses Werks für die Entwicklung unserer Informationstechnologien ist heute anderswo schon geschrieben worden, zum…

Im neuen Spiegel findet sich die folgende erstaunliche Meldung (in der Online-Ausgabe, ich habe noch nicht gesehen, ob es in der gedruckten Fassung genauso aussieht): Man muß wohl kein Mathematiker sein um zu erkennen, dass es für die Anordnung von mehr als hundert Bällen nicht nur zehntausend Möglichkeiten geben wird. Bekanntlich ist schon 70! so…

Der Abelpreis (mit gut 106$ der höchstdotierte Mathematikpreis) geht dieses Jahr an Yakov Sinai.

Die ZEIT schreibt über Cédric Villani