Abstract
ZusammenfassungMit der zunehmenden Komplexität von KI-Systemen steigt auch die Notwendigkeit, die Funktionalität der genutzten Systeme verständlich zu machen. Aufgabe dieses Kapitels ist es diesen Aspekt näher zu beleuchten. Zentral ist dabei die Frage wie KI-Systeme so gestaltet werden können, dass sie nicht nur ihre intendierte Funktion erfüllen, sondern die Nutzenden so über ihre Funktionsweise informieren, dass diese die Systeme verstehen, nutzen und steuern können. Zentrale Inhalte sind dabei die Definition von Erklärungen, verschiedene Arten von Erklärungen, sowie Strategien für die bestmögliche Implementierung.
Publisher
Springer Fachmedien Wiesbaden
Reference16 articles.
1. Adadi, A., & Berrada, M. (2018). Peeking Inside the Black-Box: A Survey on Explainable Artificial Intelligence (XAI). IEEE Access, 6, 52138–52160. https://doi.org/10.1109/ACCESS.2018.2870052
2. Bach, S., Binder, A., Montavon, G., Klauschen, F., Müller, K.-R., & Samek, W. (2015). On pixel-wise explanations for non-linear classifier decisions by layer-wise relevance propagation. PLoS ONE, 10(7), e0130140. https://doi.org/10.1371/journal.pone.0130140.
3. de Winter, J. C. F., Eisma, Y. B., Cabrall, C. D. D., Hancock, P. A., & Stanton, N. A. (2019). Situation awareness based on eye movements in relation to the task environment. Cognition, Technology & Work, 21(1), 99–111. https://doi.org/10.1007/s10111-018-0527-6.
4. Grier, R. A. (2015, September). How high is high? A meta-analysis of NASA-TLX global workload scores. In Proceedings of the Human Factors and Ergonomics Society Annual Meeting (Bd. 59, No. 1, S. 1727–1731). Sage CA: SAGE Publications.
5. Hoffman, R. R., Mueller, S. T., Klein, G., & Litman, J. (2018). Metrics for explainable AI: Challenges and prospects. arXiv preprint arXiv:1812.04608.