Neuroinformatics,

Module: 
Neuroinformatics
Examiner: 
Volker Sperschneider
Assessor: 
Anja Siemer

Modulprüfung: Neuroinformatik Fachsemester: 6

Prüfer: Volker Sperschneider

Wiederholungsprüfung?

Beisitzer: Anja Siemer

Note: A

Bereiche nach Zeit: c.a. 15min Vortrag über Hopfield-Netze
c.a. 15min Fragen über Neuronale Netze

Fragensammlung: wie lauteten die Fragen im einzelnen?

F: Erklären sie mal was so ein Perzeptron ist
A: Eingabevektor, Gewichte, akt. fkt., ausgabe, klassifikation

F: Was mach ich wenn ein Perzeptron etwas falsch klassifiziert?
A: Perzeptronalgo erklärt

F: warum nicht einfach bei "false negativ" auf jedes gewicht 1 addieren und unmgekehert?
A: Weil sonst andere klassifikationen falsch werden. Es spielen nur die teile des Vektors eine rolle die auch eine 1 aufweisen. Perzeptron konvergenztheorem erzklärt

F: Woran würden wir merken, dass es keine Lösung gibt
A: GewichteVektor kommt 2 mal vor: perzeptron zyklustheorem.

F: Würde es helfen alle vorherigen gewichteVectoren zu speichern?
A: ja, aber Speicherproblem, besser: Pocketalgorithmus.

F: Angenommen wir können nicht alles lösen mit einem Perzeptron, könnten wir dann vorverarbeitung machen? Wie?
A: mit Rosenblattperzeptron, merkmalsextraktion, perzeptron auf merkmalsvektor.

F: Dürfen die Merkmale schon alles ausrechenen?
A: nein, müssen beschränkt sein, sonst nix mehr zu tun für perzeptron

F: alles Lösbar mit Rosenblattp.?
A: nö, beispiel Parity.

F: schwenk zu FFN: Wie lernt ein Netz?
A: Fehlerterm errechnen (überwachtes Lernen) und mit backprop für jedes gewicht in die entgegengesetzte richtung des steilsten gradienten der Fehlerfkt. Fehlerterm erklärt.

F: was für Probleme können auftreten beim lernen?
A: Alle möglichen sachen erklärt: flat spot elim., momentum term, superSAB, RProp usw.

Irgendwie kam er nun auf Lernbarkeit. Weiß nicht mehr genau wie.
Ich erklärte den Generalisierungsfehler und was die uns unbekannte Wahrscheinlichkeitsverteilung ist. Inclusive Hypothesenmenge usw.

F: Es könnte doch passieren, dass wir eine völlig untypische Menge als trainingsmenge ziehen. was können wir unternehmen dass wir trotzdem auf der sicheren seite sind?
A: Konfidenz. Sample complexity. estimation error.

F: Was ist die VC-Dim?
A: eine anzahl von beispieeln für die bei einer klassifikation für jede konfiguration einen Lösung gefunden werden kann.

F: Wie groß ist die VC-Dim bei Linearer Trennbarkeit in 2D?
A: 3

F: wie könnte man das visualisieren?
A: 3 punkte aufmalen und zu jeder lage der 3 punkte eine linie malen die positive von negativen beispielen trennt.

Dann kam das was unter "Schriftlich gelöst" steht.

F: was ist das problem wenn wir mit konfidenz 99% eine gute trainingsliste erstellen wollen?
A: trainingsliste muss riesengroß sein weil von dimension abhängig.

F: und wie ist das bei SVMs?
A: viel besser da kein "Curse of dimensionality". samplecomplexity hängt nur von größe der Trennbreite ab (natürlich relativ zu größe des inputvectors). Trotzdem immer noch große samplecomplexity

Was mußte schriftlich gelöst werden?

Ich musste aufzeichnen, wie viele instanzen ich maximal mit einem dreieck, (statt mit einer Hyperebene) separieren kann unter der bedinung, dass es für jede Konfiguration der x punkte in 2D eine Lösung gibt. Mit 3 punkten gehts noch, weil ich das Dreieck immer um einen punkt zeichnen kann. Mit 4 gehts nicht mehr (wirklich? bin mir grad garnicht sicher, er stimmte mir aber zu). VC-dimension also 3. Falls ihr das jetzt nicht sofort verstanden habt: Ich brauchte auch eine weile bis ich kapiert hab was er will.

Wie waren Einstieg, Ablauf, Ende, Bewertung und Begründung?

Einstieg:

Da hab ich meinen Vortrag gehalten

Ablauf:

Standartfragen das Skript betreffend

Ende:

Wir waren schon 5 min über die Zeit, hatte er wohl vergessen, ich habs auch nicht bemerkt. -> apruptes Ende.

Bewertung und Begründung:

Wunderbar

Persönlicher Kommmentar, Was war toll? Was war doof? Was war auffällig?

Zu meinem vortrag hat er nix gesagt. Anja Siemer hat die gesamte Zeit nix gesagt. Ansonsten waren beide sehr freundlich und Volker half bei Problemen. Seine fragen haben sich stark am skript orientiert, man sollte es also sehr gut kennen.

Lässt sich der Prüfer von den Antworten leiten?

Ja, wenn man bestimmte Stichwörter in den Raum wirft, nimmt er sie auf und fragt dann da weiter. Wenn ihr also lieber nix über SVMs erzählt, erwähnt sie auch nicht.

Zum Verhalten des Prüfers:

Sehr freundlich.