KI-Innovationswettbewerb 2021

Wie man Berührungsängste von Nutzern gegenüber Künstlicher Intelligenz abbaut

   Artikel anhören
© Pixabay
Im Zuge des KI-Innovationswettbewerbes 2021 ließ das Bundesministerium für Wirtschaft und Energie (BMWi) die Studie „Erklärbare KI – Anforderungen, Anwendungsfälle und Lösungen“ anfertigen. Sie soll Aufklärung darüber schaffen, für welche Branchen erklärbare KI zwingend notwendig ist, welche Erklärungsstrategien sinnvoll sind und wie man die richtige Strategie für seine Branche findet.

Im Rahmen der Begleitforschung zum KI-Inovationswettbewerb 2021 mit dem Thema „Künstliche Intelligenz als Treiber für volkswirtschaftlich relevante Ökosysteme“ entstand die etwa 100 Seiten starke Studie, die Anforderungen, Anwendungsfälle und Lösungen für erklärbare Künstliche Intelligenz (KI) liefern soll.

KI-Innovationswettbewerb
Durch den KI-Innovationswettbewerb fördert das Bundesministerium für Wirtschaft und Energie (BMWi) ausgewählte Projekte, die KI-basierte Plattformkonzepte entwickeln, wobei die Projekte durch eine wissenschaftliche Begleitforschung unterstützt werden. Der KI-Innovationswettbewerb ist ein wichtiger Teil der nationalen KI-Strategie.
Ziel der Studie ist es, sich mit dem aktuellen Stand von erklärbarer KI zu befassen und Anwendern sowie Entwicklern mithilfe von Use Cases einen Überblick über mögliche Erklärungsstrategien zu verschaffen.

Die Studienergebnisse basieren hierbei auf einer von Sommer bis Herbst 2020 durchgeführten Online-Befragung, an der 209 Teilnehmer und Teilnehmerinnen aus wissenschaftlichen Einrichtungen, sowie Unternehmen mit KI-Bezug partizipiert haben. Hierbei handelt es sich bei etwa 75 Prozent der Befragten um KI-Entwickler und bei etwa 25 Prozent um KI-Anwender.

Die Studie kommt zu dem Ergebnis, dass die Verwendung von KI-Prozessen vor allem in der Gesundheitswirtschaft essenziell ist, da Fehlentscheidungen hier unter Umständen fatale Folgen für Leben und Gesundheit haben können.

Aber auch in der Finanz-, Produktions- und Bauwirtschaft, der Prozessindustrie, der Energiewirtschaft und dem Dienstleistungssektor ist die Verwendung von KI-Prozessen erst durch eine umfassende Erklärbarkeit sinnvoll. Denn: Systemen, die die Nutzer nicht verstehen, werden sie nicht vertrauen und sie somit auch nicht verwenden.

Die Studie zeigt also deutlich, dass Nutzer und Nutzerinnen die Prozesse hinter KI-Modellen verstehen wollen, bevor sie diese ohne Misstrauen nutzen. Eine gute Erklärungsstrategie wird somit in den genannten Sektoren zukünftig essenziell sein.

Aber auch für Zulassungs-­ und Zertifizierungsverfahren, sowie das Einhalten der durch die DSGVO geforderten Transparenzpflichten ist eine Erklärung der durch die KI durchgeführten Vorgänge vonnöten. Die Erklärbarkeit von KI­-Produkten gehört damit in Europa zu den wichtigsten Markterfolgsfaktoren.

Zur Erleichterung der Findung einer passenden Erklärungsstrategie wurde im Zuge der Studie anhand der Erfahrungen der Befragten und eigener Recherche eine Orientierungshilfe erstellt. Hierbei handelt es sich um einen sogenannten Entscheidungsbaum für erklärbare KI. Dieser soll Unternehmen und KI-Anwendern beim Finden der Erklärungsstrategie, sowie den ersten Schritten der Umsetzung unterstützen.

Eine weitere Herausforderung, neben der Findung von passenden Erklärungsstrategien, könnte laut der Studie auch darin liegen, dass eine Vereinheitlichung von Begriffsdefinitionen für erklärbare KI von wissenschaftlicher Seite noch nicht stattgefunden hat.

Der Studie zufolge ist erklärbare KI im Moment besonders für KI-Entwickler und Domainexperten wichtig ist. In den nächsten fünf bis zehn Jahren soll sich die Wichtigkeit aber in allen Branchen angleichen, sodass die Erklärbarkeit von künstlicher Intelligenz auch für Endkunden, externe Prüfer und Entscheider im Management an Bedeutung gewinnen wird.

Kommentare

Die Kommentare für diesen Artikel sind geschlossen.

    Ich habe die Datenschutzbestimmungen zur Kenntnis genommen und akzeptiere diese.
    stats