Algorithmen, Recht und Gesellschaft - Entscheider*innen zwischen algorithmischer Steuerung und persönlicher Verantwortung
Untersuchung zum diskriminierungsfreien und arbeitnehmer*innenfreundlichen Einsatz von algorithmenunterstützter Entscheidungsfindung im Arbeitsleben
Hintergrund
Die Arbeitswelt ist durch die Digitalisierung in großer Veränderung begriffen.
Immer mehr Entscheidungen mit großem Einfluss auf das Leben von Menschen werden mit algorithmischer Unterstützung getroffen: Von Einstellung, Beförderung und Kündigung über Kreditwürdigkeit bis hin zu polizeilichen Maßnahmen und der Gewährung von Qualifizierungsmaßnahmen bei der Arbeitssuche oder Sozialhilfe. Diese algorithmenunterstützte Entscheidungsfindung (algorithmic decision support (ADS) oder automated decision-making (ADM)) wird häufig als besonders „objektiv“ und „neutral“ empfunden, tatsächlich wirft sie aber im gesamten Ablauf vielerlei potenziell und real diskriminierende Ungleichbehandlungen auf. Das geht von der zugrundeliegenden Datenbasis über die impliziten oder expliziten Annahmen für Modellierung, Prognose etc. bis hin zur Schnittstelle mit den Benutzer*innen und der Darstellung der „Empfehlungen“.
Projektziel
Im Projekt AlgoJus liegt das Hauptaugenmerk auf den Problemen, die in der Interaktion von Algorithmen mit Menschen entstehen. Im Unterschied zu Entscheidungen von Menschen, in denen auch Ermessensentscheidungen möglich sind, gibt es einen solchen Spielraum bei Algorithmen nicht. Dazu kommt, dass oft gerade durch die scheinbare Objektivität und Neutralität diskriminierende Resultate geleugnet oder wegerklärt werden. Bestehende Diskriminierungen werden somit verhärtet und sind durch die in vielen Fällen fehlende oder mangelhafte Transparenz solcher algorithmischen Systeme noch schwerer zu bekämpfen. All dies stellt Bestrebungen nach Gleichstellung, Inklusion und Diskriminierungsfreiheit vor Probleme.
Im Rahmen dieses Projekts wird die Frage behandelt, wie algorithmengestützte Entscheidungssysteme bestmöglich eingeführt und eingesetzt werden können, sodass Probleme möglichst entschärft werden. Die Fragestellungen werden aus rechtlicher, ethischer und technischer Hinsicht wissenschaftlich untersucht.
Insbesondere liegt der Fokus auf folgenden Fragen:
Welche Arten von Regelungen und Maßnahmen braucht es, um die Verantwortung von Entscheider*innen, die algorithmenunterstützt arbeiten, klar von der Verantwortung der Entwickler*innen abzugrenzen?
Wie kann sichergestellt werden, dass die volle Verantwortung für alle Entscheidungen übernommen werden kann, wenn Algorithmen zur Entscheidungsfindung eingesetzt werden – ohne diese Verantwortung Arbeitnehmer*innen aufzubürden, die sie aufgrund ihres eingeschränkten Handlungsspielraums nicht tragen können? Wie lässt sich abbilden, darstellen, nachverfolgen, wohin sich die Verantwortung dabei verlagert bzw. verlagern muss?
Ein besonderer Fall sind Fragestellungen im Bereich algorithmischer Entscheidungen in Polizei und Justiz. Hier werden zusätzlich noch die Auswirkungen solcher Systeme auf die Gesamtgesellschaft gesonderter Betrachtung unterzogen.
Ergebnis
Ergebnisse sind veröffentlicht worden. So steht bereits der Leitfaden zu Verantwortlichkeit und Rechenschaft im Umgang mit Algorithmen online Verfügbar unter diesem Link. Zusätzlich dazu findet sich auch das dazugehörige Interaktive Tool VerA (kurz für »Verantwortung« und »Algorithmen«), das dabei helfen soll ”Fragen der Verantwortlichkeit bei der Einführung von Algorithmen bestmöglich zu überblicken und drohende Kompetenzkonflikte und Verantwortungslücken frühzeitig zu erkennen”, hier.
Zusätzlich dazu sind auch die Publikation „Part Man, Part Machine, All Cop”: Automation in Policing“ und “‘Computer Says No’: Algorithmic decision support and organisational responsibility“ erschienen.
Runtime
02/2020 – 01/2021
Web
Funding
Das Projekt wird durch den Digitalisierungsfonds Arbeit 4.0 der AK Wien gefördert und in Kooperation mit der FH St. Pölten durchgeführt.