Neuroinformatics, 2016-03-29

Module: 
Neuroinformatics
Examiner: 
Gordon Pipia
Assessor: 
Kristoffer Appel
Date: 
Tue, 2016-03-29

VORBEREITUNG

Was hast du zur Prüfungsvorbereitung benutzt?
Was wir hilfreich, was war weniger hilfreich?

Mit Abstand das beste Lernmaterial: Christopher M. Bishop "Pattern Recognition and Machine Learning" Kapitel 1 und 3. Der Rest ist auch super, aber für NI braucht man nur 1 und 3.
Ansonsten alte Prüfungsprotokolle und die Lecture slides um abzugleichen was relevant ist.

Note 1.0
Zeit: etwas über 15 Minuten Neuroinformatik, etwas unter 15 Minuten Theoretical Neuroscience

Fragensammlung: wie lauteten die Fragen im einzelnen?

Im Prinzip genau das gleiche wie in allen anderen Protokollen (Bayes, ML, Model selection).

Erklären sie erstmal Bayes -
Formel hingeschrieben, Terme benannt, Evidence umgeschrieben.

Und was können wir jetzt damit machen?

- MAP/ML. Ich hatte zuerst MAP genannt, daraufhin hat er mich gefragt welchen prior ich wählen würde. Uninformative gesagt, z.b. Uniform. Wenn wir einen uniform prior nehmen was passiert dann mit Bayes? MAP und ML sind äquivalent für uniform prior.

Beschreiben sie mal wie sie ML machen würden:
- Likelihood funktion hinschreiben (Gaussian Noise assumption), Model hinschreiben (z.b. general linear model), Likelihood des gesamten Datensets ist das Produkt über die einzelnen Likelihoods, wenn alle Daten independent and identical distributed (i.i.d) sind. Um ableiten einfacher zu machen Log nehmen (geht weil log monoton ist). Abgeleitete log likelihood = 0 setzen und nach den parametern lösen.

Wenn sie jetzt die erste Ableitung haben, was können sie damit noch machen?
- Zweite Ableitung, sagt uns wie stark die Likelihood funktion auf Änderungen in den Parametern reagiert -> Fisher Information.

Wenn sie jetzt ein Model gefittet haben, wann ist unser Model "gut"?
- Generalizability, Testdaten, RMS error, Cross-validation schonmal angeschnitten.

Nennen sie mir ein paar Methoden um Modelle zu evaluieren oder zu vergleichen und wann sie die benutzen würden.
- Likelihood Ratio für Nested Models, Cross-Validation für unlimited resources, AIC wenn sonst nichts geht.

Was ist Bootstrapping und wie hängt es mit AIC zusammen?
- Statistische Verteilung unserer Estimator schätzen in dem wir aus unseren Daten neu samplen. AIC ist die log likelihood + ein Bootstrap estimate des Bias unserer log likelihood !

(Das war sicherlich die schwierigste Frage, und auch die einzige die ich vorher noch in keinem Protokoll gesehen hatte)

Was mußte schriftlich gelöst werden?

Nichts, aber mir hat es geholfen die Formeln zu notieren über die ich gesprochen habe.

Persönlicher Kommmentar, Was war toll? Was war doof? Was war auffällig?

Super chillig, habe nichts auszusetzen, aber keinen Kaffee bekommen ! ;)

Bewertung und Begründung:

Lässt sich der Prüfer von den Antworten leiten?

Ja, aber ich hatte den Eindruck das er bestimmte Themen aufjedenfall angesprochen haben möchte.

Zum Verhalten des Prüfers:

Super nett, hilfsbereit wenn nötig, lässt einen aber auch einfach machen.