KI - Wissensakquisition und Wissensrepräsentation
Dauer | 4 SWS |
---|---|
Art | Vorlesung mit Übung |
Semester | WS2019/20 |
Dozent | Dr. Daniel Nyga |
Übungsleitung | Mona Abdel-Keream |
Sprache | Deutsch |
Empfohlende Voraussetzung | Grundlagen der KI |
Termine | Vorlesung: Di, 16-18 Uhr; Übung: Mo, 12-14 Uhr |
Ort | TAB-Gebäude (Am Fallturm 1), Eingang F, Raum 0.50/0.51 |
Bemerkungen | Vorlesungsbeginn: Di, 16.10.2018 Übungsbeginn: Mo, 21.10.2019 |
Organisatorisches sowie Vorlesungsmaterialien können auf der Stud.IP-Seite zur Veranstaltung gefunden werde: Stud.IP page.
Wissensverarbeitung (Knowledge Processing/Engineering) ist ein Teilgebiet der Künstlichen Intelligenz, welches sich mit der konzeptionellen und technischen Unterstützung von Wissensprozessen innerhalb intelligenter Systeme beschäftigt. Wesentliche Merkmale der Wissensverarbeitung sind das Entdecken und Strukturieren von Wissen in großen Datenmengen (Knowledge Discovery/Machine Learning), das Ableiten von neuem Wissen aus vorhandenem Wissen (Inference/Reasoning), und die Kommunikation des Wissens mit einheitlicher Semantik über Systemgrenzen hinweg (Knowledge Exchange). Eine immer wichtigere Rolle spielen hierbei Methoden der unsicheren Wissensmodellierung, die es Agenten ermöglichen, in Gegenwart von unvollständigen, falschen, widersprüchlichen oder verrauschten Beobachtungen kompetent zu handeln. Die rasant zunehmende Menge an Information aus dem World Wide Web sowie die stetig wachsende Verfügbarkeit dieser Information machen automatisierte Wissensakquisitions- und Repräsentationsprozesse unverzichtbar. Methoden des maschinellen Lernens und der unsicheren Wissensverarbeitung kommen mittlerweile in fast allen Bereichen der rechnergestützten Informationsverarbeitung zum Einsatz, wie zum Beispiel in kognitiver Robotik, medizinischen Diagnosesystemen, virtuellen persönlichen Assistenten, Vorhersagen von Klima- und Finanzmarktentwicklungen, autonomem Fahren, Materialwissenschaften und vielen mehr.
Die Vorlesung behandelt grundlegende Techniken der statistischen Datenanalyse und Wahrscheinlichkeitstheorie, des Bayes'schen maschinellen Lernens und probabilistischer graphischer Modelle, wie auch den aktuellen Stand der Forschung im Bereich probabilistischer relationaler Wissensrepräsentation, probabilistischer Logik und ensemblebasierten Lernverfahren.
Die Inhalte sind im Einzelnen:
- Probabilistische Wissensverarbeitung
- Grundlagen der Wahrscheinlichkeitstheorie
- Bayes'sches maschinelles Lernen
- Markov-Netze vs. Bayes-Netze
- Probabilistische Klassifikation und Regression
- Naive Bayes
- Logistic Regression
- Bayesian Linear Regression
- Classification and Regression Trees
- Probabilistisches Schließen über die Zeit
- Stochastische Prozesse: Markov-Ketten
- Hidden Markov Models (HMM)
- Conditional Random Fields (CRF)
- Statistical Relational Learning
- Markov logic networks (MLN)
- Ensemble-basierte Lernalgorithmen
- Adaptive Boosting (AdaBoost)
- Gradient Tree Boosting (XGBoost)
- Bagging & Random Forests
Prof. Dr. hc. Michael Beetz PhD
Head of Institute
Contact via
Andrea Cowley
assistant to Prof. Beetz
ai-office@cs.uni-bremen.de
Discover our VRB for innovative and interactive research
Memberships and associations: