Neuroinformatics, 2011-09-20

Module: 
Neuroinformatics
Examiner: 
Gordon Pipa
Assessor: 
forgotten
Date: 
Tue, 2011-09-20

Vorbereitung

Ich habe mich lange vor meiner Prüfung mit Herrn Pipa getroffen um die Themen der Prüfung abzusprechen. Er nannte mir Themen und Seiten im Bishop-Buch. Vorbereitet habe ich mich dann hauptsächlich indem ich alles aus dem Buch gelernt hatte was die genannten Themen betraf. Themen bei denen er auf seine Vorlesung verwiesen hat, habe ich auch einfach aus seinen Vorlesungsslides gelernt. Ich habe etwa 1-1,5 Monate vorher angefangen. :)

Prüfung

Wiederholungsprüfung? nein
Note: 1.0
Bereiche: generell Neuroinformatik (30min)

Erkläre mal die Bayes-Regel!
(Bayes-Regel hingeschrieben und hergeleitet)

Ist es in einem Model besser viele Parameter zu haben oder nicht?
(Nein, sonst ist das Model zu komplex und overfitting kann passieren, Grafik gezeichnet wenn zu komplex dann Testdataerror hoch)

Er hat ein Bild mit vielen Punkten gezeichnet und will eine gute Funktion dafür finden die die Punkte gut fittet. Wie haben wir das immer in der Vorlesung gemacht? (weitere Zwischenfragen wurden gestellt bei der Erklärung, an die ich mich aber nicht mehr erinnere; meine Antworten habe ich aber hier auch erwähnt)
(polinominal curve fitting, Formel aufgeschrieben, dann auf Gauss mit squared Error gekommen (Formeln), Likelihood davon gebildet - warum kann man das als Produkt schreiben? - weil sie independent und identical verteilt sind; Maximierung erwähnt, Graphen gezeichnet, wozu braucht man das erklärt)

Wenn ich nicht die polinominale lineare Funktion nutzen will welche Möglichkeiten gibt es noch?
(allgemeine lin basis Funktionen: Formel erklärt, Beispiele für non-lin Basisfunktionen genannt und hingeschrieben (bin based, Gauss, sigmoidal, Fourier, identity; splines)

Und wenn man jetzt vergleicht, was der Unterschied von Splines und polinoimale Funktion?
(der Inputspace ist bei Splines eingeteilt und für jeden Teil ist eine polin. Fkt definiert - Vorteil? - bei einem changing x werden nicht alle Basisfunktionen affected)

Regularization. Erkläre mal.
(OVerfittingproblem benannt, Errorfunktion + Regularizationterm hingeschrieben, erklärt wie man am besten Lambda bestimmt, simple squared Reg. formel aufgeschrieben, und generelle Formel hingeschrieben und erklärt, q für 1 beschrieben (sparse model), Kreise-grafic erklärt, dass bei q=1 einige w's 0 werden)

Wie kann man Models vergleichen, wie gut sie sind?
(AIC und Crossvalidation genannt
für nested models Likelihood Ratio benannt)

Erkläre mal die Likelihood Ratio!
(allgemeine Formel erklärt + scaling der Formel)

Und wie kann ich jetzt vergleichen?
(chi quadrat - Verteilung, quadrat ist Freiheitsgrad und wenn die Deviance (2log L/L) größer ist als die critische Variable des chi quadrat ist das Model besser.)

Er zeigt ein Bild von einem Netzwerk gezeigt die teilweise verbunden waren. Schreibe die Joint prob. auf.
(Produkt aus allen nodes (xi / pai) aufgeschrieben)

Persönlicher Kommmentar, Was war toll? Was war doof? Was war auffällig?

Note: 1,0
Gut: Er ist sehr nett und er beruhigt einem bei Unsicherheiten. Tolle Prüfung. Hätte ich nie erwartet. Sein Kommentar: Er war sehr beeindruckt, musste sich nicht mal mit dem Zweitprüfer beraten und meinte es wäre eine der besten Prüfungen überhaupt gewesen! Ein großes Dankeschön von meiner Seite!