Wie können wir Verzerrungen durch KI-Algorithmen beseitigen? Das Pentest-Manifest

· Thomas Wood
Wie können wir Verzerrungen durch KI-Algorithmen beseitigen? Das Pentest-Manifest

Erweitern Sie Ihr Team mit NLP-Spezialisten

Entfesseln Sie das Potenzial Ihrer NLP-Projekte mit dem richtigen Talent. Veröffentlichen Sie Ihre Stelle bei uns und ziehen Sie Kandidaten an, die genauso leidenschaftlich über natürliche Sprachverarbeitung sind.

NLP-Experten einstellen

Geschlechtsspezifische Voreingenommenheit bei der KI zur Kreditwürdigkeitsprüfung?

In den letzten Wochen berichteten mehrere Apple Card-Nutzer in den USA, dass ihnen und ihren Partnern auf der Markenkreditkarte völlig unterschiedliche Kreditlimits zugewiesen worden seien, obwohl sie über dasselbe Einkommen und dieselbe Kreditwürdigkeit verfügten (siehe BBC-Artikel ). Steve Wozniak, Mitbegründer von Apple, twitterte, dass sein Kreditlimit auf der Karte zehnmal höher sei als das seiner Frau, obwohl das Paar auf allen seinen anderen Karten über dieselben Kreditlimits verfüge.

Das Department of Financial Services in New York, eine Aufsichtsbehörde für Finanzdienstleistungen, untersucht Vorwürfe, dass das Geschlecht der Nutzer der Grund für die Ungleichheit sein könnte. Apple weist ausdrücklich darauf hin, dass Goldman Sachs für den Algorithmus verantwortlich sei, was offenbar im Widerspruch zu Apples Marketingslogan „Erstellt von Apple, nicht von einer Bank“ steht.

Da die Untersuchung der Aufsichtsbehörde noch im Gange ist und bisher keine Befangenheit nachgewiesen werden konnte, gehe ich in diesem Artikel ausschließlich hypothetisch vor.

Voreingenommenheit bei der im Justizsystem eingesetzten KI

Die Geschichte um die Apple Card ist nicht das einzige Beispiel für algorithmische Voreingenommenheit, das in jüngster Zeit Schlagzeilen macht. Im Juli letzten Jahres unterzeichnete die NAACP (National Association for the Advancement of Colored People) in den USA eine Erklärung, in der sie ein Moratorium für den Einsatz automatisierter Entscheidungsfindungstools forderte, da sich gezeigt hat, dass einige von ihnen bei der Vorhersage von Rückfällen – also der Wahrscheinlichkeit, mit der ein Täter erneut straffällig wird – rassistische Voreingenommenheit aufweisen.

2013 wurde Eric Loomis zu sechs Jahren Gefängnis verurteilt, nachdem der Bundesstaat Wisconsin ein Programm namens COMPAS verwendet hatte, um seine Wahrscheinlichkeit zu berechnen, ein weiteres Verbrechen zu begehen. COMPAS ist ein proprietärer Algorithmus, dessen Funktionsweise nur der Hersteller Equivant kennt. Loomis versuchte, die Verwendung des Algorithmus vor dem Obersten Gerichtshof von Wisconsin anzufechten, doch seine Klage wurde letztlich abgelehnt.

Ein Screenshot des Fragebogens, den ein Verdächtiger ausfüllt und den das COMPAS-Modell zur Vorhersage des Rückfallrisikos verwendet. Dem COMPAS-Modell wurde eine KI-Voreingenommenheit vorgeworfen. Bildquelle und vollständiges Dokument .

Leider verstärken derartige Vorfälle nur die weitverbreitete Wahrnehmung der KI als eines gefährlichen, undurchsichtigen und unzureichend regulierten Werkzeugs, das die schlimmsten Vorurteile der Gesellschaft verkörpern kann.

Wie kann eine KI voreingenommen, rassistisch oder befangen sein? Was ist schiefgelaufen?

Ich werde mich hier auf das Beispiel eines Kreditantrags konzentrieren, da dieses Problem einfacher zu formulieren und zu analysieren ist. Die von mir angesprochenen Punkte sind jedoch auf jede Art von Voreingenommenheit und geschützte Kategorie übertragbar.

Ich möchte zunächst darauf hinweisen, dass ich stark bezweifle, dass sich irgendjemand bei Apple oder Goldman Sachs zusammengesetzt und einen expliziten Regelsatz erstellt hat, der das Geschlecht bei Kreditentscheidungen berücksichtigt.

Stellen wir uns zunächst einmal vor, wir erstellen ein maschinelles Lernmodell , das die Wahrscheinlichkeit vorhersagt, dass eine Person einen Kredit nicht zurückzahlt. Es gibt eine Reihe „geschützter Kategorien“, wie z. B. das Geschlecht, bei denen wir nicht diskriminieren dürfen.

Die Entwicklung und Schulung einer KI zur Kreditentscheidung ist eine Art „einfaches“ Data-Science-Problem, das regelmäßig auf Kaggle (einer Website, auf der Sie an Data-Science-Wettbewerben teilnehmen können) auftaucht und zu dem angehende Data Scientists in Vorstellungsgesprächen befragt werden. Das Rezept für einen Roboter- Kreditsachbearbeiter lautet wie folgt:

Stellen Sie sich vor, Sie verfügen über eine große Tabelle mit 10.000 Zeilen, die sich ausschließlich auf Kreditantragsteller beziehen, die Ihre Bank in der Vergangenheit gesehen hat:

AlterEinkommenKreditwürdigkeitGeschlechtBildungsniveauAnzahl der Jahre beim ArbeitgeberBerufsbezeichnungsind sie in Verzug geraten?
3828000460MBachelor2KrankenschwesterNEIN

Fast Data Science - London

Need a business solution?

Führend in den Bereichen NLP , ML und Data Science seit 2016 – kontaktieren Sie uns für eine NLP- Beratungssitzung.

Die letzte Spalte enthält die Daten, die wir vorhersagen möchten.

Sie würden diese Daten nehmen und die Zeilen in drei Gruppen aufteilen, den sogenannten Trainingssatz, den Validierungssatz und den Testsatz.

Sie wählen dann einen Algorithmus für maschinelles Lernen aus, z. B. Lineare Regression , Random Forest oder Neuronale Netzwerke , und lassen ihn aus den Trainingszeilen „lernen“, ohne ihm die Validierungszeilen zu zeigen. Anschließend testen Sie ihn mit dem Validierungssatz. Sie wiederholen dies für verschiedene Algorithmen , wobei Sie die Algorithmen jedes Mal optimieren. Das Modell, das Sie schließlich einsetzen, ist dasjenige, das in Ihren Validierungszeilen am besten abgeschnitten hat.

Wenn Sie fertig sind, dürfen Sie Ihr Modell am Testdatensatz testen und seine Leistung überprüfen.

Der Trugschluss, eine Spalte zu entfernen und zu erwarten, dass die Verzerrung aus der KI verschwindet

Wenn die Spalte „Geschlecht“ in den Trainingsdaten vorhanden ist, besteht offensichtlich das Risiko, dass ein verzerrtes Modell erstellt wird.

Allerdings haben die Datenwissenschaftler von Apple/Goldman diese Spalte wahrscheinlich von Anfang an aus ihrem Datensatz entfernt.

Wie kann es also sein, dass der digitale Geldverleiher immer noch geschlechtsspezifisch ist? Unser Algorithmus kann doch unmöglich sexistisch sein, oder? Schließlich kennt er nicht einmal das Geschlecht des Antragstellers!

Leider und kontraintuitiv ist es immer noch möglich, dass sich Voreingenommenheit einschleicht!

Unser Datensatz könnte Informationen enthalten, die ein Indikator für das Geschlecht sind. Beispielsweise könnten die Dauer der aktuellen Beschäftigung, das Gehalt und insbesondere die Berufsbezeichnung alle mit der Frage korrelieren, ob unser Bewerber männlich oder weiblich ist.

Wenn es möglich ist, ein maschinelles Lernmodell anhand Ihres bereinigten Datensatzes zu trainieren, um das Geschlecht mit einem gewissen Grad an Genauigkeit vorherzusagen, besteht das Risiko, dass Ihr Modell versehentlich geschlechtsspezifisch ist. Ihr Kreditvorhersagemodell könnte lernen, die impliziten Hinweise zum Geschlecht im Datensatz zu verwenden, auch wenn es das Geschlecht selbst nicht sehen kann.

Ein Manifest für unvoreingenommene KI

Ich möchte eine Ergänzung zum Arbeitsablauf der KI-Entwicklung vorschlagen: Wir sollten unsere KI aus verschiedenen Blickwinkeln angehen und versuchen, mögliche Voreingenommenheiten zu entdecken, bevor wir sie einsetzen.

Es genügt nicht, einfach die geschützten Kategorien aus Ihrem Datensatz zu entfernen, sich die Hände abzuklopfen und zu denken: „Aufgabe erledigt.“

Penetrationstest zur KI-Verzerrung

Wir müssen bei der Entwicklung einer KI auch den Advocatus Diaboli spielen und statt nur zu versuchen, die Ursachen für eine Voreingenommenheit zu beseitigen, sollten wir versuchen , das Vorhandensein einer Voreingenommenheit nachzuweisen .

Wenn Sie sich mit der Cybersicherheit auskennen, haben Sie sicher schon einmal vom Konzept eines Pentests oder Penetrationstests gehört. Eine Person, die nicht an der Entwicklung Ihres Systems beteiligt war, beispielsweise ein externer Berater , versucht, Ihr System zu hacken, um Schwachstellen zu entdecken.

Ich schlage vor, dass wir KI-Pen-Tests einführen sollten: eine Analogie zum Pen-Test zur Aufdeckung und Beseitigung von KI-Voreingenommenheit :

Was ein KI-Pentest beinhalten würde

Um eine KI auf Voreingenommenheit zu testen, würde entweder eine externe Person oder ein interner Datenwissenschaftler, der nicht an der Entwicklung des Algorithmus beteiligt war, versuchen, ein Vorhersagemodell zu erstellen, um die entfernten geschützten Kategorien zu rekonstruieren.

Kommen wir also zum Kreditbeispiel zurück: Wenn Sie das Geschlecht aus Ihrem Datensatz entfernt haben, würde der Penetrationstester sein Bestes geben, um ein Vorhersagemodell zu erstellen, um es wiederherzustellen. Vielleicht sollten Sie ihm einen Bonus zahlen, wenn er das Geschlecht einigermaßen genau rekonstruieren kann, und zwar in Höhe des Geldes, das Sie sonst für die Schadensbegrenzung ausgegeben hätten, wenn Sie unabsichtlich ein sexistisches Kreditvorhersagemodell geliefert hätten.

Weitere Stresstests zu KI-Voreingenommenheit

Zusätzlich zum oben genannten Penetrationstest empfehle ich die folgenden weiteren Überprüfungen:

  • Segmentieren Sie die Daten nach Geschlechtern. Bewerten Sie die Genauigkeit des Modells für jedes Geschlecht.

  • Identifizieren Sie etwaige Tendenzen zur Über- bzw. Unterschätzung der Ausfallwahrscheinlichkeit bei beiden Geschlechtern.

  • Identifizieren Sie etwaige Unterschiede in der Modellgenauigkeit nach Geschlecht.

Weitere Maßnahmen

Ich habe einige der offensichtlicheren Ursachen für KI-Voreingenommenheit nicht behandelt. Beispielsweise ist es möglich, dass die Trainingsdaten selbst voreingenommen sind. Dies ist bei einigen der im Strafrechtssystem verwendeten Algorithmen sehr wahrscheinlich.

Was tun, wenn Sie eine Voreingenommenheit entdeckt haben?

Nehmen wir an, Sie haben festgestellt, dass der von Ihnen trainierte Algorithmus tatsächlich eine Voreingenommenheit gegenüber einer geschützten Kategorie wie dem Geschlecht aufweist. Sie haben folgende Möglichkeiten, dies zu mildern:

  • Wenn der Penetrationstest zeigt, dass ein anderer Eingabeparameter, wie z. B. die Berufsbezeichnung, als Proxy für das Geschlecht dient, können Sie ihn entfernen oder versuchen, die geschlechtsbezogenen Aspekte zu verschleiern oder die Daten weiter zu bereinigen, bis der Penetrationstester das Geschlecht nicht mehr rekonstruieren kann.
  • Sie können das Ergebnis des Penetrationstests zurückentwickeln , um Ihre Trainingsdaten künstlich zu verändern, bis das Geschlecht nicht mehr erkennbar ist.
  • Sie können die Funktionsweise Ihres Modells manuell korrigieren, um die Verzerrung auszugleichen
  • Sie können Ihre Trainingstabelle auf Verzerrungen überprüfen. Wenn Ihre KI aus verzerrten Daten lernt, können wir nicht erwarten, dass sie unvoreingenommen ist.
  • Wenn Ihre Vorhersagen für Frauen weniger genau sind als für Männer, liegt das wahrscheinlich daran, dass Sie z. B. mehr Trainingsdaten für Männer als für Frauen haben. In diesen Fällen können Sie die Datenerweiterung verwenden: Sie duplizieren jeden weiblichen Eintrag in Ihren Daten, bis Ihr Trainingsdatensatz ausgeglichen ist.
  • Sie können sich auch besonders anstrengen, zusätzliche Trainingsdaten für unterrepräsentierte Kategorien zu sammeln.
  • Sie können versuchen, Ihr Modell erklärbar zu machen und herauszufinden, wo die Verzerrung auftritt. Wenn Sie sich näher mit der Erklärbarkeit von maschinellem Lernen befassen möchten, lade ich Sie ein, auch meinen früheren Beitrag über erklärbare KI zu lesen.

Eine Randbemerkung … Voreingenommenheit bei der Einstellung?

Eine Anwendung dieses Ansatzes, die ich gerne näher untersuchen würde, ist die Beseitigung von Voreingenommenheit, wenn Sie maschinelles Lernen für die Personalbeschaffung verwenden. Stellen Sie sich vor, Sie haben einen Algorithmus, der Lebensläufe mit Jobs abgleicht. Wenn er versehentlich Lücken in den Lebensläufen der Leute entdeckt, die mit Mutterschaftsurlaub und damit mit dem Geschlecht zusammenhängen, laufen wir Gefahr, dass es sich um eine diskriminierende KI handelt. Ich stelle mir vor, dass dies durch einige der oben genannten Vorschläge kompensiert werden könnte, beispielsweise durch die Optimierung der Trainingsdaten und die künstliche Entfernung dieser Art von Signalen. Ich denke, dass der Penetrationstest ein wirksames Instrument für diese Herausforderung wäre.

Wie können Unternehmen verhindern, dass Voreingenommenheit erneut auftritt?

Große Unternehmen sind sich heute des Potenzials bewusst, das schlechte PR für virale Verbreitung haben kann. Wenn der Apple Card-Algorithmus also tatsächlich voreingenommen ist, wundert es mich, dass niemand den Algorithmus vor der Veröffentlichung gründlicher geprüft hat.

Ein je nach Geschlecht um den Faktor 10 unterschiedlicher Kreditrahmen ist ein eklatanter Fehler.

Hätten die am Kreditalgorithmus oder auch am vom US-Bundesstaat Wisconsin verwendeten Algorithmus zur Rückfallvorhersage beteiligten Datenwissenschaftler meine oben stehende Checkliste zum Penetrations- und Stresstest ihrer Algorithmen befolgt, hätten sie das PR-Desaster meiner Ansicht nach bemerkt, bevor es Schlagzeilen machen konnte.

Natürlich ist es einfach, im Nachhinein mit dem Finger auf die Täter zu zeigen, und der Bereich der Datenwissenschaft in der Großindustrie steckt noch in den Kinderschuhen. Manche würden es einen Wilden Westen der Unterregulierung nennen.

Ich denke, wir können auch froh darüber sein, dass einige konservative Branchen wie das Gesundheitswesen KI noch nicht für wichtige Entscheidungen eingesetzt haben. Man stelle sich die Folgen vor, wenn sich herausstellen würde, dass ein Algorithmus zur Melanomanalyse oder ein Entscheidungsmodell für Amniozentese rassistisch voreingenommen ist.

Aus diesem Grund würde ich großen Unternehmen, die Algorithmen zur Entscheidungsfindung auf den Markt bringen, dringend empfehlen, zunächst ein Team aus Datenwissenschaftlern abzustellen, deren Aufgabe nicht die Entwicklung von Algorithmen, sondern die Durchführung von Penetrations- und Stresstests mit ihnen ist.

Die Datenwissenschaftler, die die Modelle entwickeln, stehen unter zu großem Zeitdruck, um dies selbst tun zu können. Und wie die Cybersicherheitsbranche durch jahrelange Erfahrung herausgefunden hat, ist es manchmal besser, eine externe Person den Advocatus Diaboli spielen zu lassen und zu versuchen, Ihr System zum Einsturz zu bringen.

Verweise

Finden Sie Top-NLP-Talente!

Suchen Sie Experten in Natürlicher Sprachverarbeitung? Veröffentlichen Sie Ihre Stellenangebote bei uns und finden Sie heute Ihren idealen Kandidaten!

Veröffentlichen Sie einen Job

Generative KI
Generative ki

Generative KI

Generative KI Einführung Generative KI , ein Teilbereich der KI, verändert Branchen grundlegend und gestaltet die Zukunft. Durch die Nutzung fortschrittlicher Algorithmen kann generative KI Inhalte, Designs und Lösungen erstellen, die zuvor undenkbar waren.

Große Daten
Große daten

Große Daten

Große Daten Das Aufkommen von Big Data hat ganze Branchen revolutioniert und traditionelle Geschäftsmodelle und Entscheidungsprozesse verändert. In dieser umfassenden Untersuchung gehen wir der Frage nach, was Big Data ist, welche erheblichen Auswirkungen es auf die Geschäftsstrategie hat und wie Unternehmen riesige Datenmengen nutzen können, um Innovationen voranzutreiben und sich einen Wettbewerbsvorteil zu verschaffen.

KI im Finanzwesen
Ki im finanzwesen

KI im Finanzwesen

KI im Finanzwesen Die Integration künstlicher Intelligenz (KI) in den Finanzsektor hat die Arbeitsweise von Institutionen revolutioniert, von der Automatisierung von Abläufen bis hin zur Verbesserung der Kundenbindung und des Risikomanagements.

What we can do for you

Transform Unstructured Data into Actionable Insights

Contact us