Samstag, Mai 27, 2006

Entropie und Co.

Shannons Informationstheorie - 25 Seiten dichte Erkenntnis, wo Wahrscheinlichkeitstheorie, Markovprozesse und nebenbei etwas Automatentheorie verschmolzen werden. Mehr braucht man dazu nicht sagen. Auch wenn David McKay wahrscheinlich anders darüber denkt.