Maschinelles Ler­nen: Sym­bol­is­che Ansätze - WS 13/14

Einführung in maschinelles Ler­nen und Data Min­ing mit Schw­er­punkt auf Ler­nen in lo­gisch/sym­bol­is­chen Repräsentationssprachen.​
Con­tents
  1. Ak­tuelles
  2. In­halt
  3. Übun­gen
  4. Klausur
  5. Pro­jekt
  6. Forum
  7. Ma­te­ri­alien
    1. Lit­er­atur
    2. Ma­chine-Learn­ing-Werkzeuge
    3. Beispiel-Datensätze

Prof.​ Dr.​ J.​ Fürnkranz

Die Ve­r­anstal­tung im Vor­lesungsverze­ich­nis.

 

Ak­tuelles

Die Noten­liste hängt nun aus.

Die Klausurein­sicht find­et am 16.​4.​ von 15:30 bis 17:00 in Raum A313 statt.

Hin­weis:


Tag Zeit Raum Start
Vor­lesung Mittwoch 18:05 - 19:45 S202/C205 16.10.
Übung Di­en­stag 09:50 - 11:30 S202/C205

22.10.

In­halt

Durch die En­twick­lung der In­for­ma­tion­stech­nolo­gie sind immer größere Daten­men­gen verfügbar.​ Diese en­thal­ten oft im­plizites Wis­sen, das, wenn es bekan­nt wäre, große wirtschaftliche oder wis­senschaftliche Be­deu­tung hätte.​ Data Min­ing ist ein Forschungs­ge­bi­et, das sich mit der Suche nach po­ten­tiell nützlichem Wis­sen in großen Daten­men­gen beschäftigt, und Maschinelles Lern­ver­fahren gehören zu den Schlüssel­tech­nolo­gien in­ner­halb dieses Ge­bi­ets.

Die Vor­lesung bi­etet eine Einführung in das Ge­bi­et des Maschinellen Ler­nens unter dem beson­deren As­pekt des Data Minings.​ Es wer­den Ver­fahren aus ver­schiede­nen Paradig­men des Maschinellen Ler­nens mit ex­em­plar­ischen An­wen­dun­gen vorgestellt.​ Um das Wis­sen zu op­er­a­tional­isieren, wer­den in den Übun­gen prak­tisch­e Er­fahrun­gen mit Ler­nal­go­rith­men gesam­melt.

Übun­gen

In den Übun­gen er­hal­ten Sie Auf­gaben über den Vor­lesungsstoff, oft alte Klausur-Auf­gaben, die Sie selb­st lösen sollen, und die dann in der fol­gen­den Übungsstunde durchbe­sprochen wer­den.

    Klausur

    Alte Klausuren:

    Pro­jekt

    Ziel des Pro­jek­tes ist es, prak­tis­che Er­fahrun­gen im Maschinellem Ler­nen zu sammeln.​ Hierzu sollen mehrere Pro­jek­tauf­gaben mit Hilfe des Ma­chine Learn­ing Frame­works Weka gelöst werden.​ Das Pro­jekt kann allein bzw.​ in einer Kle­in­gruppe (max­i­mal 3 Stu­den­ten, Name + Matrikelnr.​ müssen in der Ab­gabe und An­mel­dung er­sichtlich sein) bear­beit­et werden.​ Die Ab­gabe soll in einem üblichen Präsen­ta­tions­for­mat (z.​B.​ OpenOf­fice, Pow­er­Point oder PDF) erfolgen.​ Jede Gruppe muss zudem jew­eils eine Auf­gabe im Rah­men der Übung präsentieren.​ (ca. 5-10 min) Die Folien soll­ten allerd­ings  selb­stre­dend, also auch ohne den dazugehörigen Vor­trag verständlich sein.​ Senden Sie bitte ihre An­mel­dung & Ab­gabe an diese E-Mail-Adresse: ml-projekt@​ke.​tu-darmstadt.​de.​

    Das Pro­jekt beste­ht aus 9 Aufgaben.​ Benutzen Sie für die Bear­beitung die hier bere­it­gestellte Samm­lung an Klas­si­fika­tions- und Re­gres­sions­datensätzen. Für die er­fol­gre­iche Bear­beitung gibt es einen Bonus von bis zu 10 Klausurpunk­ten, allerd­ings nur bei be­standen­er Klausur.

    Forum

    Das Diskus­sions­fo­rum zur Lehrver­anstal­tung find­en Sie hier.

    Lit­er­atur

    Die fol­gen­den Lehrbücher be­han­deln einen Großteil des Stoffes:

    Als ergänzende Lit­er­atur empfehlen wir im Wesentlichen die fol­gen­den Kapi­tel aus diesen Lehrbüchern:

    • Einführung
      • Mitchell, ch. 1
      • Wit­ten & Frank, ch. 1
      • Fürnkranz, Gam­berg­er & Lavrac, ch. 1
      • Flach, ch. 1
    • Regel-Ler­nen
      • Mitchell, ch.3, ch. 10
      • Wit­ten & Frank, 3.3, 4.4, 6.2
      • Fürnkranz, Gam­berg­er & Lavrac, ch. 2,3,6 - 10
      • Flach, ch.6.1-6.2
    • Eval­u­a­tion and Cost-Sen­si­tive Learn­ing
      • Wit­ten & Frank, 5.1-5.5, 5.,​ 5.8
      • Flach, ch.2, 12
    • In­stance-Based Learn­ing
      • Mitchell, 8.1, 8.2, 8.5, 8.6
      • Wit­ten & Frank, 3.8, 4.7, 6.4
      • Flach, ch. 8.1-8.3
    • Entschei­dungs­baum-Ler­nen
      • Mitchell, ch.3
      • Wit­ten & Frank, 3.2, 4.3, 6.1
      • J.​ R.​ Quinlan.​ Induc­tion of de­ci­sion trees.​ Machine Learn­ing, 1:81-106, 1986.
      • Flach, ch. 5
    • En­sem­ble Meth­ods
    • Pre-Pro­cess­ing
      • Wit­ten & Frank, ch. 7.1-7.5
    • Clus­ter­ing und As­so­ci­a­tion Rules

    Ma­chine-Learn­ing-Werkzeuge

    Beispiel-Datensätze

    Kontakt

    small ke-icon

    Knowledge Engineering Group

    Fachbereich Informatik
    TU Darmstadt

    S2|02 D203
    Hochschulstrasse 10

    D-64289 Darmstadt

    Sekretariat:
    Telefon-Symbol+49 6151 16-21811
    Fax-Symbol +49 6151 16-21812
    E-Mail-Symbol info@ke.tu-darmstadt.de

     
    A A A | Drucken | Impressum | Sitemap | Suche | Mobile Version
    zum Seitenanfangzum Seitenanfang