Author:
Wirth Christian,Schmid Ute,Voget Stefan
Abstract
ZusammenfassungVerfahren der Künstlichen Intelligenz, insbesondere datenintensive Methoden des maschinellen Lernens, halten immer mehr Einzug in industrielle Anwendungen. Im Normalfall werden KI-Anwendungen meist als fertige Black-Box-Komponenten betrachtet, welche nicht in der Lage sind, mit Anwendern zu interagieren. Am Beispiel von Parametrieraufgaben werden wir die dadurch entstehenden Probleme beleuchten und aufzeigen, wie Anwender eingebunden werden können. Für erfolgreiche Interaktion mit menschlichen Anwendern ist es notwendig, deren besonderen Erwartungen und Limitierungen explizit zu berücksichtigen. Neue, menschzentrierte Algorithmen, deren Interaktionsschnittelle auf psychologischen Erkenntnissen basiert, müssen entwickelt und identifiziert werden.
Publisher
Springer Berlin Heidelberg
Reference26 articles.
1. Ai, L., Muggleton, S.H., Hocquette, C., Gromowski, M., Schmid, U.: Beneficial and harmful explanatory machine learning. Mach. Learn. 110(4), 695–721 (2021)
2. Altmann, T., et al.: Limitations of interpretable machine learning methods. https://compstat-lmu.github.io/iml_methods_limitations/ (2020)
3. Barredo Arrieta, A., et al.: Explainable artificial intelligence (XAI): concepts, taxonomies, opportunities and challenges toward responsible AI. Inf. Fusion 58, 82–115 (2020)
4. Bobrow, D.G.: Qualitative reasoning about physical systems: an introduction. Artif. Intell. 24(1–3), 1–5 (1984)
5. Chun, M.M.: Contextual cueing of visual attention. Trends Cognit. Sci. 4(5), 170–178 (2000)
Cited by
1 articles.
订阅此论文施引文献
订阅此论文施引文献,注册后可以免费订阅5篇论文的施引文献,订阅后可以查看论文全部施引文献