Voreingenommenheit in der KI: Wie sich die algorithmische Voreingenommenheit der KI auf die Gesellschaft auswirkt

· Thomas Wood
Voreingenommenheit in der KI: Wie sich die algorithmische Voreingenommenheit der KI auf die Gesellschaft auswirkt
Can we get rid of AI bias?

Können wir die KI-Voreingenommenheit beseitigen?

Voreingenommenheit ist eine der vielen Unvollkommenheiten der Menschheit, die dazu führt, dass wir Fehler machen und uns davon abhalten, zu wachsen und Innovationen voranzutreiben. Voreingenommenheit ist jedoch nicht nur eine menschliche Realität, sondern auch eine Realität für künstliche Intelligenz . KI-Bias ein gut dokumentiertes Phänomen, das beim maschinellen Lernen Werkzeuge aus den verschiedensten Branchen, und es ist bekanntermaßen schwierig, sie loszuwerden.

Im Jahr 2020 berichtete der Guardian , dass mehr als die Hälfte der Räte in England Algorithmen verwenden, um Entscheidungen über Leistungen (Wohlfahrt) zu treffen, ohne die Öffentlichkeit zu diesem Einsatz der Technologie konsultiert zu haben. Wenn sie irgendeine Art von voreingenommener KI verwenden, könnte dies schwerwiegende Folgen für die Entrechteten in der Gesellschaft haben.

Künstliche Intelligenz soll uns von unseren menschlichen Grenzen befreien. Die Fähigkeit einer Maschine, innerhalb weniger Minuten riesige Datenmengen zu scannen und Trends und Muster zu erkennen, ist ein unschätzbares Werkzeug, das uns hilft, Zeit zu sparen und die Effizienz zu steigern. Denn Maschinen können nicht nur Daten viel schneller analysieren als Menschen, sondern auch Muster erkennen, die ein Mensch alleine nicht erkennen könnte. Wenn die künstliche Intelligenz, die wir verwenden, jedoch voreingenommen ist, werden die Extrapolationen, die wir von der KI erhalten, fehlerhaft sein.

Wie entsteht KI-Bias?

KI-Bias tritt auf, wenn falsche Annahmen im Prozess des zu systematisch voreingenommenen Ergebnissen führen. Diese Tendenz maschinellen Lernen kann durch menschliche Voreingenommenheit seitens der Personen entstehen, die das System entwerfen oder trainieren, oder sie kann aus unvollständigen oder fehlerhaften Datensätzen resultieren, die zum Trainieren des Systems verwendet werden.

Wenn Sie beispielsweise einen Algorithmus darauf trainieren, bestimmte Hauterkrankungen anhand verschiedener Bilder von Hauterkrankungen zu erkennen, und die von Ihnen verwendeten Bilder hauptsächlich hellhäutige Menschen zeigen, kann sich dies negativ auf die Fähigkeit der KI auswirken, dieselben Hauterkrankungen zu erkennen dunklere Haut. Unabhängig von der Ursache wirkt sich KI-Voreingenommenheit negativ auf die Gesellschaft aus, von den Algorithmen, die wir bei Einstellungspraktiken verwenden, bis hin zur KI, die zur Ermittlung von hochriskanten Straftätern verwendet wird .

Frühe KI-Voreingenommenheit

KI-Voreingenommenheit hat eine lange und komplizierte Geschichte, die bis in die Anfänge von Computern und maschinellem Lernen zurückreicht. Im Jahr 1988 stellte die britische Kommission für Rassengleichheit fest, dass sich eine britische medizinische Fakultät aufgrund der KI-Voreingenommenheit in ihrer Computerprogrammierung der Diskriminierung schuldig gemacht hatte. Es wurde festgestellt, dass ihr Computerprogramm Frauen und Personen mit nicht europäisch klingenden Namen bei der Auswahl von Kandidaten zu Unrecht diskriminierte für den Interviewprozess.

Interessanterweise wurde dieses Computerprogramm so konzipiert, dass es die Entscheidungen der menschlichen Zulassungsbeamten widerspiegelt, was ihm mit einer Genauigkeit 90–95 % gelang . Da die KI-Technologie entwickelt wurde, um menschliche Entscheidungen nachzuahmen, wurden unbeabsichtigt menschliche Vorurteile berücksichtigt und häufig Interviews mit Frauen und ethnischen Minderheiten verweigert.

KI-Voreingenommenheit in der Strafverfolgung

Künstliche Intelligenz wird im Strafrechtssystem häufig eingesetzt, um Bürger zu kennzeichnen, die eher als „hochriskant“ eingestuft werden. Da viele dieser Tools für maschinelles Lernen anhand bestehender Polizeiakten trainiert werden, können diese Tools menschliche Vorurteile in ihre Algorithmen integrieren.

Beispielsweise haben einige Polizisten Bedenken geäußert , weil die Wahrscheinlichkeit, dass junge schwarze Männer betroffen sind, höher ist Wenn mehr Menschen auf der Straße angehalten und durchsucht werden als junge weiße Männer, wirkt sich dies auf die Datensätze aus, die dann für die Vorhersage von KI-Verbrechen verwendet werden, was wiederum die rassistische Voreingenommenheit verstärkt. Es wurden auch Bedenken geäußert, dass Menschen aus benachteiligten Verhältnissen mit größerer Wahrscheinlichkeit öffentliche Dienstleistungen häufiger in Anspruch nehmen und dadurch ihre Darstellung in den Daten verzerrt wird, wodurch die Wahrscheinlichkeit steigt, dass sie als Risiko .

KI-Voreingenommenheit bei Einstellungspraktiken

Programme mit künstlicher Intelligenz werden auch häufig zur Überprüfung der Lebensläufe von Bewerbern eingesetzt, um Top-Talente zu rekrutieren. Es ist jedoch bekannt, dass diese Algorithmen KI-Voreingenommenheit aufweisen, was dazu führt, dass qualifizierte Kandidaten ausschließlich aufgrund ihrer Rasse oder ihres Geschlechts ausgeschlossen werden. Amazon hat kürzlich die Nutzung seines KI-Rekrutierungstools im Jahr 2018, als festgestellt wurde, dass das Programm voreingenommen gegen Frauen war.

Das künstliche Intelligenztool von Amazon wurde darauf trainiert, Muster in Lebensläufen zu erkennen, und es stellte fest, dass die Mehrheit der Bewerber Männer waren, was dazu führte, dass das Programm unbeabsichtigt männliche Bewerber bevorzugte. Dies geschah durch die Herabstufung von Bewerbungen, die das Wort „Frauen“ enthielten, beispielsweise Bewerber, die eine Frauenhochschule besuchten oder einer Frauengruppe oder -organisation beitraten. Obwohl Amazon versuchte, diese Voreingenommenheit in seinem Programm herauszufiltern, hat es sie letztendlich vollständig verworfen.

Von Männern dominierte Manga-Foren

Es stellt sich heraus, dass die Überprüfung, ob ein Bewerber ein Manga-Forum besucht, eine sexistische Art der Mitarbeiterauswahl ist.

Eine Online-Plattform für die Einstellung von Technikern namens Gild ging sogar so weit, die Social-Media-Präsenz der Bewerber zu analysieren, um einen Einstellungsscore zu erstellen. Dabei wurden Aktivitäten auf Tech-Seiten wie Github berücksichtigt, der Algorithmus vergab aber auch zusätzliche Punkte an Bewerber, die in einem bestimmten japanischen Manga-Forum aktiv waren, das eine hohe männliche Nutzerbasis hatte. Die Begründung lautete, dass das Interesse an Manga ein starker Indikator für die Programmierfähigkeit sei, die Entwickler dieses Algorithmus es jedoch versäumten, die implizite geschlechtsspezifische Voreingenommenheit zu berücksichtigen, die sie in die Einstellungspraktiken einführten.

KI-Bias in der Verarbeitung natürlicher Sprache

Viele Modelle zur Verarbeitung natürlicher Sprache werden anhand realer Daten trainiert. Da Nachrichtenartikel und Literatur typischerweise auf Männer ausgerichtet sind, führt dies zu einer Voreingenommenheit.

In der Vergangenheit hat Google Translate den geschlechtsneutralen türkischen Ausdruck o bir hemşire mit „sie ist ein“ wiedergegeben Krankenschwester“, während o bir doktor mit „er ist Krankenschwester“ übersetzt wurde. Das Pronomen o ist geschlechtsneutral und kann gleichermaßen mit „er“ oder „sie“ übersetzt werden.

Glücklicherweise wurde Google Translate, als ich im Jahr 2020 nachschaute, so geändert, dass nun sowohl männliche als auch weibliche Übersetzungen angeboten werden.

Google Translate bietet jetzt korrekt beide Optionen für Übersetzungen aus geschlechtsneutraler Sprache an, anstatt standardmäßig weibliche oder männliche Pronomen zu verwenden. Bildquelle: Google

Was war also die Ursache für die ursprünglichen voreingenommenen Übersetzungen?

Nun, maschinelle Übersetzungsalgorithmen werden auf Korpora trainiert, bei denen es sich um große Textkörper handelt, die aus Nachrichtenartikeln, Literatur und anderen Inhalten bestehen. Die maschinellen Übersetzungsmodelle basieren auf Statistiken, das heißt, sie basieren auf der Wahrscheinlichkeit, dass bestimmte Sätze in einer Sprache vorkommen. Ein Satz wie „sie ist Krankenschwester“ wäre wahrscheinlicher gewesen als „er ist Krankenschwester“ – vielleicht tauchte die weibliche Version häufiger auf als die männliche Version im Korpus, auf dem Google Translate trainiert wurde.

Schauen wir uns als Beispiel das British National Corpus an, eines der bekanntesten Korpora für britisches Englisch.

Zählungen der geschlechtsspezifischen Pronomen im British National Corpus. Männliche Pronomen wie er, ihn, sein und sich selbst sind viel häufiger als weibliche Pronomen.

Wir können sehen, dass die männlichen Pronomen im Allgemeinen viel häufiger vorkommen als ihre weiblichen Gegenstücke.

Angesichts dieses Ungleichgewichts ist es kein Wunder, dass maschinelle Übersetzungsalgorithmen geschlechtsspezifische Vorurteile in übersetzten Texten absorbieren und weiter verbreiten.

Verwendung von KI zur Erkennung menschlicher Voreingenommenheit

Obwohl KI-Voreingenommenheit ein ernstes Problem darstellt, das die Genauigkeit vieler maschineller Lernprogramme beeinträchtigt, ist sie in mancher Hinsicht möglicherweise auch einfacher zu bewältigen als menschliche Voreingenommenheit. Im Gegensatz zu menschlicher Voreingenommenheit, die oft unbewusst und unbemerkt ist, ist die KI-Voreingenommenheit viel leichter zu erkennen. Algorithmen können viel einfacher auf Bias durchsucht werden, was häufig unbemerkte menschliche Bias in den in das System eingegebenen Datensätzen aufdecken kann. Dies kann uns helfen, systemische Verzerrungen zu erkennen und unseren Ansatz zur Datenerhebung zu ändern.

Bekämpfung der KI-Verzerrung

Obwohl es schwierig ist, KI-Voreingenommenheit zu beheben, gibt es Möglichkeiten, die Wahrscheinlichkeit einer Voreingenommenheit zu verringern in Algorithmen der künstlichen Intelligenz. Durch das Testen von Algorithmen in Umgebungen, die denen ähneln, in denen sie in der realen Welt verwendet werden, können wir die KI effektiv trainieren, geeignete Muster zu erkennen, ohne unbewusste Vorurteile einzubeziehen. Entwickler müssen außerdem darauf achten, dass die Datensysteme, die sie zum Trainieren des maschinellen Lernens verwenden, frei von Vorurteilen sind und alle Rassen und Geschlechter genau repräsentieren.

Forscher haben versucht, „Fairness“ in KI-Algorithmen zu definieren, indem sie entweder verlangten, dass Modelle über alle Gruppen hinweg den gleichen Vorhersagewert haben, oder indem sie verlangten, dass sie gleiche Falsch-Positiv- und Falsch-Negativ-Raten aufweisen. Sie sind sogar so weit gegangen, kontrafaktische Fairness in ihre KI-Modelle zu integrieren, in denen sie testen, um sicherzustellen, dass die Ergebnisse gleich sind in einer Welt, in der häufig sensible Attribute wie Rasse oder Geschlecht geändert wurden.

In einem früheren Blogbeitrag habe ich mich für die Einführung Standards für Penetrationstests ausgesprochen , bei dem KI-Algorithmen einem Stresstest auf Verzerrung unterzogen werden und ein Tester versucht, geschützte Merkmale zu rekonstruieren, die aus Trainingsdaten entfernt wurden.

Letztlich besteht die beste Möglichkeit, KI-Verzerrungen zu reduzieren, darin, dass sowohl die Leute, die die künstliche Intelligenz trainieren, als auch die Leute, die sie testen, auf mögliche Verzerrungen achten und natürlich die Diversität in den Entwicklerteams wahren, die an dem Algorithmus arbeiten. Indem Entwickler auf beiden Seiten nach unbewussten Vorurteilen Ausschau halten, können sie Ungenauigkeiten schnell erkennen und die notwendigen Änderungen vornehmen.

Verweise

Cathy O’Neil, Wie Algorithmen unser Arbeitsleben bestimmen , The Guardian (2016)

Caroline Criado Perez, Invisible Women (2019)

The British National Corpus, Version 3 (BNC XML Edition). 2007. Vertrieb durch Bodleian Libraries, University of Oxford, im Auftrag des BNC-Konsortiums. URL: http://www.natcorp.ox.ac.uk/

Marsh und McIntyre, Fast die Hälfte der Kommunen in Großbritannien nutzt Algorithmen, um Schadensentscheidungen zu treffen , The Guardian, 2020

Text Mining – Die Einführung in die geschäftliche Nutzung
DatenwissenschaftProjektmanagement

Text Mining – Die Einführung in die geschäftliche Nutzung

Text Mining: Kurzer Überblick Das moderne Unternehmen hat Zugriff auf riesige Mengen unstrukturierter Daten, doch diese Daten können sich nur dann als nützlich erweisen, wenn daraus die gewünschten Erkenntnisse gewonnen werden können.

Der Stand der Textanalyse im Jahr 2023: Trends und Möglichkeiten
DatenwissenschaftProjektmanagement

Der Stand der Textanalyse im Jahr 2023: Trends und Möglichkeiten

Wie sieht Textanalyse-KI im Jahr 2023 aus, wie sie generell funktioniert und wie Sie damit Ihre Kunden, Mitarbeiter und Ihre Marke auf das nächste Level heben können – all das und mehr in unserem ausführlichen Artikel.

Was ist Natural Language Understanding (NLU) und wie wird es verwendet? in der Praxis.
DatenwissenschaftProjektmanagement

Was ist Natural Language Understanding (NLU) und wie wird es verwendet? in der Praxis.

Natural Language Understanding (NLU): Überblick Wenn wir darüber nachdenken, ist Sprache eines der mächtigsten Werkzeuge in unserem Arsenal. Wir nutzen es, um auszudrücken, was wir fühlen oder denken.

Was wir für Sie tun können

Verwandeln Sie unstrukturierte Daten in umsetzbare Erkenntnisse

Kontaktiere uns