Entropie und Co.
Shannons Informationstheorie - 25 Seiten dichte Erkenntnis, wo Wahrscheinlichkeitstheorie, Markovprozesse und nebenbei etwas Automatentheorie verschmolzen werden. Mehr braucht man dazu nicht sagen. Auch wenn David McKay wahrscheinlich anders darüber denkt.
0 Comments:
Kommentar veröffentlichen
<< Home