Sem­i­nar aus maschinellem Ler­nen

News

Die Noten hängen aus.

Übersicht

Im Rah­men dieses Sem­i­nars disku­tieren wir ak­tuelle Forschungsergeb­nisse aus ver­schiede­nen Bere­ichen des maschinellen Lernens.​ Das Sem­i­nar wird vo­raus­sichtlich aus den fol­gen­den Bere­ichen beste­hen:

  • Re­in­force­ment Learn­ing & Ac­tive Learn­ing
  • Rule Learn­ing
  • Se­man­tic Web

Es wird zu jedem dieser drei Bere­iche vier bis fünf The­men geben, die dann bear­beit­et wer­den können.​ Die zeitliche Ein­teilung wird sich eben­falls an der obi­gen Rei­hen­folge orientieren.​ So be­gin­nen wir ca.​ in der 3 Vor­lesungswoche (genauere Angaben find­en sich hier) mit den Präsen­ta­tio­nen von Re­in­force­ment Learn­ing & Ac­tive Learn­ing, machen dann mit Rule Learn­ing weit­er und schließen das Sem­i­nar mit den The­men aus dem Bere­ich Se­man­tic Web ab.

Als Grund­lage und Ar­beits­ma­te­ri­alien di­enen daher ver­schiedene Fach­pub­lika­tio­nen.

Es wird er­wartet, daß Stu­den­ten die ihnen zugeteil­ten Ma­te­ri­alien in einem ca. 45-minütigen Kurz-Vor­trag (30 min Vor­trag, 15 min Diskus­sion) vorstellen.​​ Der Vor­trag sollte je­doch in­haltlich über diese Ma­te­ri­alien hin­aus­ge­hen und eine selbst­ständige Au­seinan­der­set­zung mit dem gewählten Thema demon­stri­eren.

Or­gan­isatorisches

Zeit und Ort: Di­en­stags, 14:25-16:05 Uhr, S103/107
Or­gan­i­sa­tion: Fred­erik Janssen (Rule Learn­ing), Heiko Paul­heim (Se­man­tic Web), Chris­tian Wirth (Re­in­force­ment Learn­ing & Ac­tive Learn­ing) und Enel­do Loza Men­cia

Am Di, 23.10.2012 wird es eine Vorbe­sprechung zum Sem­i­nar geben in welch­er die The­men kurz vorgestellt wer­den und die Ver­gabe der The­men erfolgt.​ Daher sollte jeder sich zu diesem Zeit­punkt bere­its in­formiert haben welche The­men es gibt und welche man bevorzugt.​ Das Sem­i­nar wird dann 2 Wochen später mit dem er­sten Vor­trag starten (also am 6.11.12).

Bitte teilen Sie uns bis zum Do, 25.10.12 Ihre The­menwünsche mit (3 Pri­or­itäten).

An­mel­dung

Zum Sem­i­nar ist eine verbindliche An­mel­dung per Mail erforderlich.​ Bitte geben Sie Ihre Ma­trikel­num­mer mit an.​ Die Teil­nah­megren­ze liegt bei 20 Personen.​ Sollten sich mehr als 20 Per­so­n­en an­melden, wird der Zeit­punkt der An­mel­dung auss­chlaggebend sein.

Ablauf

Jede/r Stu­dent/in erhält einen oder mehrere Fachar­tikel zur Ausar­beitung, deren wesentliche As­pek­te dann in einem Vor­trag vorgestellt und im An­schluß von allen disku­tiert wer­den sollen.​ Die Vorträge und/oder Folien können wahlweise auf Deutsch oder En­glisch gehal­ten werden.​ Es wird er­wartet, dass regelmäßig am Sem­i­nar teilgenom­men wird, dafür muss man keine Ausar­beitung an­fer­ti­gen.

Vorken­nt­nisse

Da diese Ar­tikel dem let­zten Stand der Forschung entsprechen, wird ein­er­seits er­wartet, dass entsprechende Grund­ken­nt­nisse (und In­ter­esse!) in maschinellem Ler­nen und Data Min­ing mit­ge­bracht wer­den, dass man sich aber an­der­er­seits im Zuge der Vor­bere­itung auch selb­ständig mit der The­matik weit­er ver­traut macht und ggf.​ auch weit­erführende bzw.​ grundle­gende Lit­er­atur zu Rate zieht (bitte Quellen nen­nen).

Vorträge

Es wird er­wartet, daß Sie die Vorträge mit Folien begleiten.​ Falls Sie keinen Lap­top haben, bit­ten wir darum, uns die Slides rechtzeit­ig zu senden, damit wir sie auf einem an­deren Lap­top ein­spie­len bzw.​ testen können.​ Die Vorträge und/oder Slides können wahlweise auf Deutsch oder En­glisch gehal­ten wer­den.

Die Folien können mit dem Pro­gramm Ihrer Wahl er­stellt wer­den, soll­ten aber zu­min­d­est das KE-Lo­go ir­gend­wo beinhalten.​ Das Logo in eps find­en Sie hier, in pdf ist es hier verfügbar.​ Gerne können Sie auch Latex benutzen.​ Hierfür emp­fiehlt sich das TU Cor­po­rate De­sign, welch­es hier verfügbar ist.​ Es han­delt sich dann um die Klasse tudbeamer.​ Die Farbe wäre für KE ac­cent­col­or=tud7b.

Beispiele für Vorträge find­en Sie auf der Ve­r­anstal­tungs­seite vom let­zten Jahr.

Beno­tung

In die Gesamt­note fließen die Ausar­beitung des Vor­trags (Folien), die Präsen­ta­tion, die Beant­wor­tung von Fra­gen zum Vor­trag, sowie die ak­tive Teil­nahme an der Diskus­sion bei den Vorträgen an­der­er ein.

Im Vorder­grund der Gesamt­beno­tung steht je­doch die selb­ständige Au­seinan­der­set­zung mit dem Problem.​ Für eine sehr gute (1.​x) Beu­rteilung muß klar sein, dass Sie die fraglichen Ar­beit­en ver­standen haben und von den vor­liegen­den Pa­pers ab­strahieren können.​ Eine ex­ak­te Wieder­gabe des In­halts der Pa­piere führt nur zu einer Beurteilung mit 2.​x,​ außeror­dentlich schwache Leis­tun­gen in einem der genan­nten Punk­te zu 3.​x oder schlechter.

Ter­mine

06.11.12

fällt aus!

13.11.12

Rudolf Li­outikov - Non­para­met­ric Rep­re­sen­ta­tion of Poli­cies and Value Func­tions: A Tra­jec­to­ry-based Ap­proach (Re­in­force­ment Learn­ing & Ac­tive Learn­ing) [Slides]

20.11.12

Thomas Arnold - GP-Mu­sic: An In­ter­ac­tive Ge­net­ic Pro­gram­ming Sys­tem for Music Gen­er­a­tion with Au­to­mat­ed Fit­ness Raters (Re­in­force­ment Learn­ing & Ac­tive Learn­ing) [Slides]

27.11.12

Sören Schmidt - Re­sults of the Ac­tive Learn­ing Chal­lenge (Re­in­force­ment Learn­ing & Ac­tive Learn­ing) [Slides]

Yas­min Kra­hofer - Com­bin­ing Man­u­al Feed­back with Sub­se­quent MDP Re­ward Sig­nals for Re­in­fo­ce­ment Learn­ing (Re­in­force­ment Learn­ing & Ac­tive Learn­ing) [Slides]

04.12.12

Sem­i­nar fällt aus!

11.12.12

Thu Huong Luu - Su­per­vised De­scrip­tive Rule Dis­cov­ery: A Uni­fy­ing Sur­vey of Con­trast Set, Emerg­ing Pat­tern and Sub­group Min­ing (Rule Learn­ing) [Slides]

18.12.12

Sem­i­nar fällt aus!

15.01.13

Ju­lian Prom­mer - Da­ta-Driv­en Adap­tive Se­lec­tion of Rules Qual­i­ty Mea­sures for Im­prov­ing the Rules In­duc­tion Al­go­rithm & A Com­par­i­son of Rule Sets Gen­er­at­ed from Databas­es by In­dis­cerni­bil­i­ty Re­la­tion - A Rough Sets Ap­proach (Rule Learn­ing) [Slides]

Jan Hen­drick Meub - RULES-6: a sim­ple rule in­duc­tion al­go­rithm for han­dling large data sets (Rule Learn­ing) [Slides]

22.01.13

Thanh Tung Do - DB­pe­dia On­tol­o­gy En­rich­ment for In­con­sis­ten­cy De­tec­tionSta­tis­ti­cal Schema In­duc­tion (Se­man­tic Web) [Slides]

29.01.13

Paul Dubs - Learn­ing ex­pres­sive link­age rules using ge­net­ic pro­gram­ming (Se­man­tic Web) [Slides]

Amir Naseri - YAM++ - A com­bi­na­tion of graph match­ing and ma­chine learn­ing ap­proach to on­tol­o­gy align­ment task (Se­man­tic Web) [Slides]

05.02.13

Ben­jamin Lück - Tem­plate-based Ques­tion An­swer­ing over RDF Data (Se­man­tic Web) [Slides]

Übrigge­bliebene The­men

Rule Learn­ing

Kontakt

small ke-icon

Knowledge Engineering Group

Fachbereich Informatik
TU Darmstadt

S2|02 D203
Hochschulstrasse 10

D-64289 Darmstadt

Sekretariat:
Telefon-Symbol+49 6151 16-21811
Fax-Symbol +49 6151 16-21812
E-Mail-Symbol info@ke.tu-darmstadt.de

 
A A A | Drucken | Impressum | Sitemap | Suche | Mobile Version
zum Seitenanfangzum Seitenanfang