Dienstag, Mai 30, 2006

Logitech-Gründer Borel im Interview

Noch was interessantes:
"SPIEGEL ONLINE: Wie kann Europa punkten, wenn die Massenproduktion in Asien so viel billiger ist?
Borel:
Es ist ein Standort für Know-how. Die Schweizer Hochschulausbildung zum Beispiel, zumindest für Ingenieure, ist ja noch immer sehr gut. Es hapert nur mit dem Umfeld, der Atmosphäre. Wenn ein talentierter Uni-Absolvent sein Leben lang hier bleibt, kommt nichts Optimales dabei raus. Wenn Sie ihn aber für fünf Jahre in die USA schicken, lernt er das Beste aus beiden Welten.
"

Interview zu Bachelor-Akzeptanz: "Meckern hilft nicht"

Bin ja auch Lehrpersonal und in diesem Zuge mit Bachelor-Einführung beschäftigt. Dazu ein Artikel in Spiegel Online "Meckern hilft nicht"

Sonntag, Mai 28, 2006

The Study of Complex Systems

Ich weiß gerade nicht, wie ich gerade bei meinen Recherchen bezüglich Graphischer Modelle und Bayes-Netze auf das Center for the Study of Complex Systems gestoßen bin, aber da arbeitet nicht nur John Holland (Der Genetische-Algorithmen Mensch), sondern sie haben auch eine Seite, die die Eigenschaften komplexer Systeme zusammenfasst, und auch ein paar Beispiele.

Samstag, Mai 27, 2006

Memory Prediction Framework

Jeff Hawkins' "On Intelligence" mit seiner Idee des Memory Prediction Frameworks verfolge ich schon seit etwas über einem Jahr; Vor kurzem hat Numenta ein Whitepaper veröffentlicht, mit dem sie die Verfügbarkeit von einer Implementierung der Ideen aus On Intelligence ankündigen. Das ganze basiert auf den Arbeiten von Dileep George, der schon in Stanford einen Prototypen gebaut hat. In diesem Thread wird ein Buch von Judea Pearl genannt, das wohl inspirierend gewirkt hat. Interessant: 11% kaufen auch Lauritzens Buch über Graphical Models... Alles große Bayesianer hier.

Ergodizität

Softpedia macht es klar. Man verfolge einen Konstituenten eines Ensembles. Zeigt er (im Zeitverlauf?) die gleiche Verteilung wie das gesamte Ensemble zu einem Zeitpunkt, haben wir Ergodizität. Ein Markovprozess sollte also ergodisch sein.

Entropie und Co.

Shannons Informationstheorie - 25 Seiten dichte Erkenntnis, wo Wahrscheinlichkeitstheorie, Markovprozesse und nebenbei etwas Automatentheorie verschmolzen werden. Mehr braucht man dazu nicht sagen. Auch wenn David McKay wahrscheinlich anders darüber denkt.