Header bestehend aus Logo und aktuellem Thema

Hauptinhalte

Gerechte Algorithmen

Algorithmen sind heute mehr als Suchmaschinen, Kaufvorschläge und automatisierter Börsenhandel. Algorithmen sortieren vorab elektronische Bewerbungen aus, sie entscheiden über Kreditwürdigkeit und Versicherungstarife. Höchste Zeit sich zu fragen, ob diese Entscheidungen auch gerecht getroffen werden!

Ein Debattenbeitrag von Lars Winterfeld (KV Ilmkreis)

Die immer günstiger werdende Akku-, Rechen- und Speicherkapazität sowie die zunehmende Vernetzung von mobilen Geräten und Alltagsgegenständen hat zu einer erhöhten Verfügbarkeit von mehr und neuen Daten geführt („Big Data“). Es ist das Geschäftsmodell des 21. Jahrhunderts diese Daten von Maschinen statistisch auswerten zu lassen („Machine Learning“), um damit in Millisekunden automatisiert Entscheidungen treffen zu können. Dies kann dann erfreulich sein, wenn ein Algorithmus für uns entscheidet, welchen Weg wir fahren sollen oder welches Buch uns voraussichtlich gefallen wird. Es wird aber dann fragwürdig, wenn Entscheidungen über das Schicksal von Menschen getroffen werden und dabei nur technische und keine moralischen oder sozialen Wertmaßstäbe angelegt werden. Deshalb sollten einerseits Informatiker*innen mehr für die gesellschaftliche Relevanz ihrer Erzeugnisse sensibilisiert werden und andererseits liegt es an der Politik diese technischen Entwicklungen kritisch zu begleiten und Ungerechtigkeiten möglichst vorzubeugen, noch bevor sie zum Problem geworden sind. Dieser Debattenbeitrag möchte deshalb im Folgenden versuchen, sich einige der möglichen Probleme vorzustellen und Lösungsvorschläge anzudenken.

Fangen wir mit denkbaren Problemen an:

Angenommen, eine Bank lässt einen statistischen Algorithmus entscheiden, wer einen Kredit mit langer Laufzeit bekommt. Ein wichtiges Kriterium ist dabei natürlich das zu erwartenden Einkommen, welches die Rückzahlung (plus Zinsen) ermöglicht. Selbst wenn der Algorithmus ohne diskriminierende Absichten entworfen wurde, wird er in den bestehenden Daten, mit denen er gefüttert wurde, mit hoher Wahrscheinlichkeit bei Frauen ein unterdurchschnittliches Einkommen finden – das Gender Pay Gap. Hinter der scheinbar vorurteilsfreien „maschinellen“ Verarbeitung verbirgt sich dann sehr wohl ein Diskriminierungsalgorithmus per Design, der eben gerade nicht unvoreingenommen ist, weil er immer dazu neigt bestehende Verhältnisse wieder abzubilden. So könnte es dazu kommen, dass bei sonst gleichen Voraussetzungen Firmengründerinnen seltener als Firmengründer einen Initialkredit bekommen, deshalb schlechtere Startchancen haben und der Algorithmus so zu einer selbst-erfüllenden Prophezeiung wird.

Eine vermeintlich naheliegende Gegenstrategie wäre es, Merkmale, gegen die nicht diskriminiert werden soll, explizit auszuschließen. Das Problem dabei ist, dass diese dann immer noch implizit in den Daten enthalten sein können. Einerseits kann ein einzelnes Merkmal verräterisch sein („war laut Lebenslauf schon einmal im Mutterschutz“) und andererseits kann es möglich sein, aus der Kombination verschiedener - für sich genommen harmloser – Merkmale ein anderes Merkmal mit hoher Wahrscheinlichkeit zu rekonstruieren.

Als weiteres Beispiel wird aus den USA erzählt, dass Computer herausgefunden haben, dass Mitarbeiter*innen länger angestellt bleiben, wenn sie näher am Arbeitsplatz wohnen. Der Algorithmus rät deshalb von Bewerbern ab, die hohe Wegstrecke zum Arbeitsplatz haben. Dies diskriminiert allerdings überproportional viele Farbige, die häufig am Stadtrand leben.

Ein weiteres Thema sind Krankenversicherungen. Wer regelmäßig leichten Sport treibt und seine elektrische, internetfähige Zahnbürste mit der Krankenversicherung kommunizieren lässt, kann momentan günstigere Beiträge bekommen. Denkbar wäre hier eine weitere Ausdifferenzierung: je mehr Daten verfügbar sind, desto besser könnte ein Algorithmus abschätzen, wie hoch das Krankheitsrisiko jeder Person ist und so gesund(-lebenden) Menschen geringe Beiträge anbieten. Dies heißt aber auch, dass der Beitrag für (chronisch) Kranke überdurchschnittlich hoch ausfällt. Je besser ein solcher Algorithmus funktioniert und je individuell zuverlässiger er die Kosten vorhersagt, desto mehr wird allerdings das Sozialprinzip der Versicherung aufgehoben: Wenn jeder seine individuellen Kosten trägt, braucht man auch keine Versicherung mehr.

Bereits heute sortiert ein großer deutscher Autobauer 25 der 30 tausend Bewerbungen pro Jahr „elektronisch“ aus. Die ersten Personaler*innen beginnen damit, Profile von Bewerber*innen in Sozialen Netzwerken nicht nur selbst anzuschauen, sondern auch automatisiert durchsuchen und bewerten zu lassen. Welche Kriterien dabei zum Einsatz kommen, um z.B. die „Passgenauigkeit zum Unternehmen“ zu bestimmen, bleibt verborgen. Algorithmen können auch aus Facebook-Posts die Wahrscheinlichkeit einer leichten Depression schätzen und so Berwerber*innen aussortieren oder nicht für bestimmte (verantwortungsvolle) Aufgaben zulassen.

Ein ähnliches Problem tritt beim „Predictive Policing“ auf, bei dem zukünftige Straftaten vorhergesagt werden sollen. Dies kann sinnvoll sein, wenn man die Polizei verstärkt in Gebieten Streife fahren lässt, in denen eine statistische Auswertung bspw. eine erhöhte Einbruchswahrscheinlichkeit vorhersagt. Algorithmen können dabei Muster finden, die Menschen so einfach nicht überschauen können. Zum Dilemma wird Predictive Policing etwa in folgendem Szenario: Angenommen, ein Jugendlicher begeht eine schwere Straftat und ein Algorithmus sagt zuverlässig vorher, dass 95% der Menschen mit diesem Lebenslauf später zum Mörder werden. Der Jugendliche verweigert aber jede Therapie. Natürlich ist es mit rechtsstaatlichen Prinzipien unvereinbar, Sanktionen gegen zukünftige, nur mögliche Verbrechen einzuleiten. Gleichzeitig heißt dies, dass wir im Mittel 95 Morde geschehen lassen, um nicht fünf Unschuldigen zu bestrafen. Je zuverlässiger die statistischen Vorhersagen werden, desto größer wird (auch in der medialen Diskussion) die Verlockung werden Gegenmaßnahmen einzuleiten - im Bewusstsein, dass diese im Einzelfall falsch sind.

Wie könnten nun mögliche Lösungsansätze aussehen? Hier ein paar erste Gedanken dazu:

Einzelnen Entwicklungen (wie bspw. individualisierten Preisen) wird man mit Verboten beikommen können, falls dies mehrheitsfähig ist. Im allgemeinen wird sich der Siegeszug von Big Data allerdings aus ökonomischen Gründen nicht aufhalten lassen. Für öffentliche Einrichtungen könnte gefordert werden, nur Algorithmen zu nutzen, dessen Entscheidungsstruktur für Menschen nachvollziehbar ist. Der Entscheidungsalgorithmus sollte in diesem Fall bspw. in Form eines Flowcharts darstellbar sein und nicht etwa die Form eines künstlichen Neuronalen Netzes haben. Für private Unternehmen ist es illusorisch zu glauben, dass diese ihre Algorithmen offen legen werden. Der Marktwert von Google bspw. ergibt sich gerade aus dem geheimen Suchalgorithmus. Es könnten allerdings verschiedene Designkriterien gesetzlich vorgeschrieben werden, die neben technischen Kriterien zur Qualitätskontrolle auch gewisse Gerechtigkeitsanforderungen sicherstellen sollen und deren Einhaltung von TÜV-artigen Einrichtungen überprüft wird. In diesem Zuge könnte auch die Einhaltung von Datenschutzrichtlinien überprüft werden.

Um zu vermeiden, dass ein Algorithmus basierend auf lediglich zufällig koinzidenten Merkmalen diskriminiert und um sicherzustellen, dass Entscheidungen tatsächlich prädiktiven Wert haben, erscheint es angebracht den Algorithmus fortlaufend gegen eine Zufallsauswahl zu testen. Die Falsch-Positiv- und Falsch-Negativ-Rate sollte dabei öffentlich gemacht werden.

In jedem Fall sollten für Kredit-, Personal- und sonstigen Entscheidungen immer eine konkret benannte, menschliche Person verantwortlich bleiben. Diese Verantwortung darf niemals auf ominöse Systeme abgeschoben werden können. Dies ermöglicht erst Klage- und sonstige Einspruchsmöglichkeiten vor einem unabhängigem, menschlichem Gremium.