Skip to content

Explanations gain more and more attention in the context of explainable systems. This repo contains research about different aspects of explanations and how to integrate them in an existing system.

Notifications You must be signed in to change notification settings

fonok3/Master-Thesis

Repository files navigation

Master-Thesis

Hintergrund

Die wachsende Komplexität von Softwaresystemen und die Auswirkungen Software-gestützter Entscheidungen in unserer Gesellschaft weckten den Bedarf an Software, die transparent, nachvollziehbar und vertrauenswürdig ist. Erklärbarkeit, als nicht-funktionale Anforderung (NFR), wurde als ein Mittel zum Erreichen dieser Qualitätseigenschaften identifiziert. Zudem hat Erklärbarkeit einen signifikanten Einfluss auf die Gesamtqualität des Systems, in das sie eingebaut wird.

Da es sich jedoch um eine relativ neue NFR handelt, gibt es noch keine Artefakte beispielsweise wie Richtlinien und Modelle, die Fachleute bei der Identifizierung von Anforderungen in Bezug auf die Erklärbarkeit und bei der Operationalisierung dieser Anforderungen unterstützen. Daher ist es wichtig, dass diese Artefakte vorhanden sind, damit der Requirements Engineering Prozess für Erklärbarkeit und deren Umsetzung erleichtert wird.

Aufgabe

Im Rahmen dieser Arbeit soll ein Modell bzw. Richtlinien zur Unterstützung bei der Gestaltung von Erklärungen erstellt werden, durch folgendes Vorgehen: (i) der Bedarf an Erklärungen wird eingeschätzt, (ii) die Anforderungen werden extrahiert und (iii) die Erklärungen müssen in ein bestehendes System integriert werden. Um die ersten beiden Punkte zu ermöglichen, sollte in einschlägiger Literatur geschaut werden, was die wichtigen Aspekte sind, die in Erklärungen enthalten sein sollten. Aus diesen Daten wird ein Modell entwickelt. Das Modell wird als Leitfaden für die Anforderungserfassung und das Erklärungs-Design verwendet. Abschließend werden die nach diesem Artefakt erstellten Erklärungen integriert und bewertet.

Die MA umfasst die folgenden Aspekte:

  • Identifizierung der wichtigen Aspekte von Erklärungen, entsprechend den Daten aus vorhandener Literatur und Praxis
  • Entwicklung eines Modells als Leitfaden für die Gestaltung von Erklärungen
  • Integration von Erklärungen in ein System, entsprechend dem geschaffenen Modell
  • Evaluation durch eine Benutzerstudie
  • Diskussion und Interpretation der Ergebnisse.

Organisatorisches

  • Betreuerin: M.Sc. Larissa Chazette,
  • larissa.chazette@inf.uni-hannover.de
  • Prüfer: Prof. Dr. Kurt Schneider
  • Beginn: ab sofort
  • Möglich Randbedingungen: Gute Programmierungskenntnisse, Usability, UX

About

Explanations gain more and more attention in the context of explainable systems. This repo contains research about different aspects of explanations and how to integrate them in an existing system.

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published