Ethische KI – 3 Tipps für Unternehmen

KI-Technologien bieten Unternehmen erfolgversprechende Wertschöpfungsoptionen. Gleichzeitig zeigen erste KI-Anwendungen, dass diese strukturelle Benachteiligung oder Diskriminierung von Minderheiten zur Folge haben können. Wie können Unternehmen gegensteuern? „Weiterbildungsangebote, regelmäßige Überprüfungen des Systems und die Berücksichtigung der hohen Datenqualität tragen dazu bei, einen verantwortungsvollen und fairen Einsatz der Technologie sicherzustellen“, so Fatemeh Shahinfar. Die wissenschaftliche Mitarbeiterin vom ifaa – Institut für angewandte Arbeitswissenschaft zeigt auf, wie es funktionieren kann.

Düsseldorf, 20.09.2022

Weiterbildungsangebote

Beschäftigte sollten befähigt werden, die Funktionsweise der KI zu verstehen. Mit diesem Verständnis können sie die Entscheidungen des Systems nachvollziehen und fachgerecht hinterfragen. Außerdem sollten Beschäftigte bei Fragen oder Unklarheiten zum KI-System immer Fachexperten (intern oder extern) zu Rate ziehen können.

Regelmäßige Überprüfung des Systems

Die KI soll der Organisation nutzen und nicht schaden. Deshalb ist es wichtig, dass das System sowohl vor der Einführung als auch fortlaufend während der Nutzung hinterfragt und überprüft wird. Die Verantwortungsträger im Unternehmen sollten eine regelmäßige Überprüfung des Systems sicherstellen. Wichtig ist, Beschäftigte transparent miteinzubeziehen und ihre Rückmeldungen zu berücksichtigen. Ebenso sollten Beschäftigte nicht nachvollziehbare bzw. unfaire oder falsch empfundene Entscheidungen des Systems bei Fachexperten oder einer zentralen Stelle melden können.

Qualität der Daten entscheidend gegen Diskriminierung

Die Trainingsdaten müssen diskriminierungsfrei, fair und repräsentativ sein. Unternehmen sollten darauf achten, dass dieser Anspruch an die Datenqualität bereits bei der KI-Entwicklung berücksichtigt wird. Dies ist vor allem dann bedeutend, wenn das KI-System Entscheidungen treffen soll, die Menschen betreffen und ihnen im Ernstfall schaden könnten.

KI-Systeme lernen aus Trainingsdaten wie Entscheidungen von Menschen getroffen werden und übernehmen somit auch implizite Annahmen und Vorurteile der Menschen, die sie trainieren. Sie weisen infolgedessen die Gefahr auf, vorhandene Diskriminierungen der Gesellschaft, zum Beispiel hinsichtlich Benachteiligung aufgrund von Merkmalen wie Hautfarbe, Geschlecht, Alter etc. zu übernehmen oder sogar weiter aufzubauen. Woran diskriminierende Daten festgemacht werden, muss fallspezifisch festgelegt werden.

Unternehmen sollten außerdem beachten, dass die Trainingsdaten, die der KI zur Verfügung gestellt werden, repräsentativ die Gruppe der Anwender*innen abbildet. Nur so können korrekte und nachvollziehbare Entscheidungen getroffen werden.

Zur Unterstützung und Vorbereitung von Unternehmen auf digitale Technologien auf Basis Künstlicher Intelligenz, unter anderem zum Thema Ethische Werte für die intelligente Software, bietet das ifaa die Umsetzungshilfen 4.0 an:

https://www.arbeitswissenschaft.net/angebote-produkte/checklistenhandlungshilfen/alf-che-umsetzungshilfen-arbeit40/

Weitere Informationen erhalten Sie bei Christine Molketin (c.molketin@ifaa-mail.de/ 0211 542263-26). Gerne vermitteln wir Interviews mit unseren Experten.

 

Christine Molketin Mitarbeiterin Administration Public Relations Services ifaa

Christine Molketin M.A.

Referentin Presse- und Öffentlichkeitsarbeit

Telefon: +49 211 542263-26
Telefax: +49 211 542263-37