Dmitrij Schlesinger, Forum, Wintersemester 2013/2014

    Der Bereich des Machine Learning erfasst allgemeine statistische Methoden, um Wissen zu repräsentieren und dieses zur Interpretation von Daten zu verwenden. Die klassischen Aufgaben sind dabei Klassifikation, Regression und Clustering. Im Fall der Klassifikation wird aus gegebenen klassifizierten Daten eine Entscheidungsfunktion gelernt, die es erlaubt, neuen Daten ebenfalls ein Klassenlabel zuzuweisen. Bei der Regression wird anhand von gegebenen Datenpaaren eine Abbildung aus einem Raum in einen anderen gelernt. Das Clustering kann schließlich als eine unüberwachte Variante der Klassifikation betrachtet werden, bei der einer Menge von Datenpunkten anhand von Ähnlichkeitskriterien Klassenlabel zugewiesen werden. Machine Learning Ansätze haben zahlreiche Anwendungen in verschiedenen Themengebieten, speziell in solchen in denen Unsicherheiten in den Daten eine große Rolle spielen. Ein wichtiges Anwendungsgebiet ist mit Sicherheit der Computer Vision Bereich. In der Vorlesung werden die genannten Aufgaben und entsprechende Methoden behandelt. Die Vorlesung orientiert sich am Buch "Pattern Recognition and Machine Learning" von Christopher Bishop, erschienen 2006 bei Springer, setzt aber eigene Akzente.

    Module: INF-04-FG-IS INF-BAS2 INF-BAS7
    Vorlesung: Freitag, 2. DS, 09:20 - 10:50 Uhr, INF E023, Beginn: 18. Oktober 2013
    Übung: Donnerstag, 4. DS, 13:00 - 14:30 Uhr und 5. DS, 14:50 - 16:20 Uhr, INF E009, Beginn: 24. Oktober 2013
    Voraussetzungen: Solides mathematisches Grundlagenwissen
    Weitere Hinweise: Die Vorlesung wird in deutsch gehalten, die Folien sind englisch
    Umfang: 2/2/0
    Abschluss: Mündliche Prüfung nach Ende der Vorlesungszeit
    Einschreibung: jExam
    Maximale Teilnehmerzahl 60

    News:
    01.04.2014
      Alle, die Klausur "Machine Learning" geschrieben haben, haben bestanden.
    20.02.2014
      Die Klausur "Machine Learning" findet am Freitag 28.02 um 11:10 im E2026 statt. Hilfsmittel (z.B. eigene Notizen, Vorlesungsskripten etc.) sind erlaubt. Nicht erlaubt ist alles, was andere stören kann (z.B. Handys, Laptops).
    16.02.2014
      Unsere "Kernprüfungswoche" ist 17-21.3. Für die Prüfungen "Machine Learning" stehe ich bereits ab 17.02 zur Verfügung. Allerdings sind die Termine vor 17.03 unerwünscht. Schicken Sie bitte Anfragen per E-Mail an mich (Dmytro.Shlezinger@tu-...). Falls in Kombination mit Computer Vision, bitte E-Mail an katrin.heber@tu-... mit Cc: an mich. Die Abstimmung für die Klausur Machine Learning findet man hier.
    04.02.2014
      Die Seminare am Donnerstag 06.02 fallen aus.
    08.01.2014
      Die Seminare am Donnerstag 09.01 fallen aus.
    13.12.2013
      Die Vorlesung am 20.12 fällt aus.
    01.12.2013
      Achtung!!! Die Seite für ML zieht (physikalisch) um. Die neue Adresse ist http://www.inf.tu-dresden.de/index.php?node_id=2092&ln=en. Die alte Adresse http://www1.inf.tu-dresden.de/~ds24/lehre/ml_ws_2013/ml_ws_2013.html existiert bald nicht mehr.
    18.11.2013
      Für Fragen, Diskussionen, Kommentare etc. steht ab jetzt Machine Learning Forum zur Verfügung.
    30.10.2013
      Das Erste Seminar ML "Probability Theory" in der zweiten Gruppe findet am Freitag 01.11 um 13:00-14:30 (4.DS) in E2026 statt.
    24.10.2013
      Am Freitag 25.10 um 9:40 in E023 findet der Vortrag von Herrn Fred Hamprecht statt (siehe link), zu dem alle herzlich eingeladen sind. Die Abstimmung über den Ersatztermin für das heute ausgefallene Seminar (2. Gruppe) findet man expired.
    14.10.2013
      Herzlich willkommen! Auf dieser Seite werden wehrend des Semesters alle benötigten Informationen zur Verfügung gestellt – Skripten, Aufgabenstellungen, Literaturhinweise, aktuelle Infos, Termine, Meldungen etc. Im Wesentlichen werden die alten Skripten für "Mustererkennung" vom SS2013 übernommen, die man hier findet. Bei der ersten Vorlesung am Freitag 18.10 wird das Weitere näher erläutert.

    Skripten:
    Vorlesungen:

    18.10 : Introduction, Probability Theory
    01.11 : Bayesian Decision Theory
    08.11 : Maximum Likelihood Principle
    15.11 : Discriminative Learning
    22.11 : Exponential Family
    29.11 : Neuron
    06.12 : Neural Networks
    13.12 : Clustering
    10.01 : Support Vector Machines
    17.01 : Hinge Loss
    24.01 : Kernel-PCA
    31.01 : AdaBoost, Script by Jan Sochman
                A numerical example
    07.02 : Introduction to Structural Models
    Aufgabenstellungen für Seminare:

    24.10 : Probability Theory
    07.11 : Bayesian Decision Theory
    14.11 : Maximum Likelihood Principle
    21.11 : Wir betrachten die 4. Aufgabe "EM für Mixtur der Gaussiane" aus dem vorigen Übungsblatt.
    28.11 : Discriminative Learning
    05.12 : Neuron
    12.12 : Neural Networks
    19.12 : Clustering
    16.01 : Support Vector Machines
    23.01 : Empirical Risk Minimization
    30.01 : Kernel-PCA