Verantwortungsvolle Gestaltung und Nutzung von KI-Anwendungen

Künstliche Intelligenz (KI) revolutioniert unseren Alltag – beruflich und privat – mit atemberaubender Geschwindigkeit. Anwendungen wie Chatbots, Sprachassistenten, sowie generative KI bieten das Potenzial Prozesse und Entscheidungen zu unterstützen oder gar zu automatisieren und vereinfachte Nutzerschnittstellen IT zu schaffen. Greifbar sind hierdurch effizientere Abläufe, verbesserte Prozessqualität sowie die Erleichterung von Routinetätigkeiten.

Doch diese technologischen Fortschritte gehen auch mit Herausforderungen einher. Mangelnde Transparenz der zugrundeliegenden Prozesse und des Outputs der KI ("Black Box KI"), Diskriminierung durch Algorithmen und zunehmende digitale Kluften zwischen Nutzern und Nichtnutzern können die Verbreitung von KI beeinträchtigen. Gerade aber auch die stetig zunehmende Leistungsfähigkeit der KI-Algorithmen rückt die verantwortungsvolle Gestaltung von KI-Anwendungen immer mehr in den Mittelpunkt.

Dieses Forschungsfeld beleuchtet aus einer nutzerzentrierten Perspektive wie KI zum Wohle aller beteiligten Stakeholder gestaltet und genutzt werden kann. Zentrale Faktoren sind dabei die Wahrnehmung und Gestaltung von KI-Anwendungen, Privacy sowie Vertrauen in KI-Applikationen und deren Output.

  • KI-basierte Entscheidungsunterstützung
  • Informationswahrnehmung und Vertrauen in KI-Anwendungen
  • KI-Anwendungen und Privacy

Exemplarische Projekte

  • A Multi-perspective Assessment of Channel-related Unfairness in Voice Assistants (SNF-Projektförderung)
  • Algorithmic Management – Establishing Fair and Participative Shift Planning in Healthcare (Förderung im Rahmen der Digitalisierungsstrategie der Universität Bern, zusammen mit Prof. Dr. Philipp Baumann)

Ausgewählte Publikationen

  • Weith, H.; Matt, C. (2023): Information Provision Measures for Voice Agent Product Recommendations — The Effect of Process Explanations and Process Visualizations on Fairness Perceptions, Electronic Markets (33:1), 57, DOI: 10.1007/s12525-023-00668-x.
  • Ebrahimi, S.; Matt, C. (2023): Not Seeing the (Moral) Forest for the Trees? How Task Complexity and Employees’ Expertise Affect Moral Disengagement with Discriminatory Data Analytics Recommendations, Journal of Information Technology, DOI: 10.1177/02683962231181148.
  • Lüthi, N.; Matt, C.; Myrach, T.; Junglas, I. (2023): Augmented Intelligence, Augmented Responsibility?, Business & Information Systems Engineering (65:4)pp. 391-401, DOI: 10.1007/s12599-023-00789-9.
  • Weiler, S.; Matt, C.; Hess, T. (2022): Immunizing with Information – Inoculation Messages Against Conversational Agents’ Response Failures, Electronic Markets (32), pp. 239-258, DOI: 10.1007/s12525-021-00509-9.
  • Lüthi, N.; Matt, C.; Myrach, T. (2021): A Value-Sensitive Design Approach to Minimize Value Tensions in Software-based Risk-Assessment Instruments, Journal of Decision Systems (30:2-3), pp. 194-214. 10.1080/12460125.2020.1859744