Maschinelles Ler­nen: Sym­bol­is­che Ansätze - WS 12/13

Einführung in maschinelles Ler­nen und Data Min­ing mit Schw­er­punkt auf Ler­nen in lo­gisch/sym­bol­is­chen Repräsentationssprachen.​
Con­tents
  1. In­halt
  2. Übun­gen
  3. Klausur
  4. Pro­jekt
  5. Forum
  6. Ma­te­ri­alien
    1. Lit­er­atur
    2. Ma­chine-Learn­ing-Werkzeuge
    3. Beispiel-Datensätze
    4. Data Min­ing-Wet­tbe­werbe

Prof.​ Dr.​ J.​ Fürnkranz

Die Ve­r­anstal­tung im Vor­lesungsverze­ich­nis.

Hin­weis:

Tag Zeit Raum Start
Vor­lesung Mittwoch 18:05 - 19:45 S202/C205 17.10.
Übung Di­en­stag 09:50 - 11:30 S202/C205

23.10.

Die Klausurein­sicht find­et am 15.4. von 13:00-15:00 Uhr in Raum A213 statt.​  

In­halt

Durch die En­twick­lung der In­for­ma­tion­stech­nolo­gie sind immer größere Daten­men­gen verfügbar.​ Diese en­thal­ten oft im­plizites Wis­sen, das, wenn es bekan­nt wäre, große wirtschaftliche oder wis­senschaftliche Be­deu­tung hätte.​ Data Min­ing ist ein Forschungs­ge­bi­et, das sich mit der Suche nach po­ten­tiell nützlichem Wis­sen in großen Daten­men­gen beschäftigt, und Maschinelles Lern­ver­fahren gehören zu den Schlüssel­tech­nolo­gien in­ner­halb dieses Ge­bi­ets.

Die Vor­lesung bi­etet eine Einführung in das Ge­bi­et des Maschinellen Ler­nens unter dem beson­deren As­pekt des Data Minings.​ Es wer­den Ver­fahren aus ver­schiede­nen Paradig­men des Maschinellen Ler­nens mit ex­em­plar­ischen An­wen­dun­gen vorgestellt.​ Um das Wis­sen zu op­er­a­tional­isieren, wer­den in den Übun­gen prak­tisch­e Er­fahrun­gen mit Ler­nal­go­rith­men gesam­melt.

Übun­gen

In den Übun­gen er­hal­ten Sie Auf­gaben über den Vor­lesungsstoff, oft alte Klausur-Auf­gaben, die Sie selb­st lösen sollen, und die dann in der fol­gen­den Übungsstunde durchbe­sprochen wer­den.

  1. Übung 0, 23.10.12: Übung 0
  2. Übung 1, 30.10.12: Klas­si­fika­tion [Muster Lösung]
  3. Übung 2, 06.11.12: Einzel­regeln [Muster Lösung]
  4. Übung 3, 13.11.12: Ver­sion Spaces [Muster Lösung]
  5. Übung 4, 20.11.12: Regeller­nen I [Muster Lösung] [up­date 20.11]
  6. Übung 5, 27.11.12: Regeller­nen II [Muster Lösung]
  7. Übung 6, 04.12.12:  Evaluierung [Muster Lösung]
  8. Übung 7, 11.12.12: In­stance-based learn­ing  [Muster Lösung]
  9. Übung 8, 18.11.12: In­stance-based learn­ing II [Muster Lösung]
  10. Übung 9, 15.01.13: De­ci­sion Trees I [Muster Lösung]
  11. Übung 10, 22.01.13: De­ci­sion Trees II [Muster Lösung]
  12. Übung 11, 29.01.13: En­sem­bles [Muster Lösung]
  13. Übung 12. 05.02.13: Pre­pro­cess­ing [Muster Lösung] [up­date 04.02]
  14. Übung 13. 12.02.13: As­sozi­a­tion­sregeln [Muster Lösung] [up­date 11.02]

Klausur

Die Klausur wird am 19.2.2013 in Raum C205 von 10-12h stat­tfind­en.

Alte Klausuren find­en Sie hier, so wie hier. [up­date 13.2]

Pro­jekt

Ziel des Pro­jek­tes ist es, prak­tis­che Er­fahrun­gen im Maschinellem Ler­nen zu sammeln.​ Hierzu sollen mehrere Pro­jek­tauf­gaben mit Hilfe des Ma­chine Learn­ing Frame­works Weka gelöst werden.​ Das Pro­jekt kann allein bzw.​ in einer Kle­in­gruppe (max­i­mal 3 Stu­den­ten, Name + Matrikelnr.​ müssen in der Ab­gabe und An­mel­dung er­sichtlich sein) bear­beit­et werden.​ Die Ab­gabe soll in einem üblichen Präsen­ta­tions­for­mat (z.​B.​ OpenOf­fice, Pow­er­Point oder PDF) erfolgen.​ Jede Gruppe muss zudem jew­eils eine Auf­gabe im Rah­men der Übung präsentieren.​ (ca. 5-10 min) Die Folien soll­ten allerd­ings  selb­stre­dend, also auch ohne den dazugehörigen Vor­trag verständlich sein.​ Senden Sie bitte ihre An­mel­dung & Ab­gabe an diese E-Mail-Adresse: ml-projekt@​ke.​tu-darmstadt.​de.​

Das Pro­jekt [up­date 03.12] beste­ht aus 9 Aufgaben.​ Benutzen Sie für die Bear­beitung die hier bere­it­gestellte Samm­lung an Klas­si­fika­tions- und Re­gres­sions­datensätzen. Für die er­fol­gre­iche Bear­beitung gibt es einen Bonus von bis zu 10 Klausurpunk­ten, allerd­ings nur bei be­standen­er Klausur.

Forum

Das Diskus­sions­fo­rum zur Lehrver­anstal­tung find­en Sie hier.

Lit­er­atur

Die fol­gen­den bei­den Lehrbücher be­han­deln einen Großteil des Stoffes:

Während die Lehrbücher den Stoff im Großen und Ganzen be­han­deln, und in vie­len Punk­ten auch noch tiefer gehen, wer­den in der Vor­lesung zum Teil an­dere Schw­er­punk­te gesetzt.​ Als ergänzende Lit­er­atur empfehlen wir im Wesentlichen die fol­gen­den Ar­beit­en (bitte auf Up­dates acht­en):

Pa­pers zu vie­len The­men find­en Sie oft auch mit Cite­Seer, DER Such­mas­chine für wis­senschaftliche Texte der In­for­matik

Ma­chine-Learn­ing-Werkzeuge

Beispiel-Datensätze

Data Min­ing-Wet­tbe­werbe

Kontakt

small ke-icon

Knowledge Engineering Group

Fachbereich Informatik
TU Darmstadt

S2|02 D203
Hochschulstrasse 10

D-64289 Darmstadt

Sekretariat:
Telefon-Symbol+49 6151 16-21811
Fax-Symbol +49 6151 16-21812
E-Mail-Symbol info@ke.tu-darmstadt.de

 
A A A | Drucken | Impressum | Sitemap | Suche | Mobile Version
zum Seitenanfangzum Seitenanfang