Maschinelles Lernen für Unternehmen: Formeln oder Intuition?

· Thomas Wood
Maschinelles Lernen für Unternehmen: Formeln oder Intuition?

Entdecken Sie Ihre Zukunft in NLP!

Tauchen Sie ein in die Welt der Natürlichen Sprachverarbeitung! Entdecken Sie modernste NLP-Rollen, die zu Ihren Fähigkeiten und Leidenschaften passen.

NLP-Jobs entdecken

Viele Anwendungen des maschinellen Lernens in der Wirtschaft sind komplex, aber wir können viel erreichen, indem wir das Risiko auf einer additiven Skala von 0 bis 10 bewerten. Dies ist ein Mittelweg zwischen der Verwendung komplexer Black-Box-Modelle wie neuronalen Netzen und der traditionellen menschlichen Intuition.

Stellen Sie sich vor, Sie hätten die Aufgabe, die Abschlusschancen eines Oberstufenschülers vorherzusagen. Wem würden Sie mehr vertrauen: der Vorhersage des Klassenlehrers dieses Schülers oder einem Bewertungsrezept wie dem folgenden?

Start at 8 points. If the student transferred school midway through the academic year, subtract 2 points

Hypothetischer Bewertungsalgorithmus für einen Gymnasiasten, um das Risiko eines Scheiterns vorherzusagen.

Im Jahr 1954 schrieb der Psychologe Paul Meehl ein bahnbrechendes Buch mit dem Titel „ Clinical Versus Statistical Prediction: A Theoretical Analysis and a Review of the Evidence“ , in dem er die Genauigkeit klinischer Vorhersagen von medizinischem Fachpersonal mit statistischen Vorhersagen von Scores und Algorithmen verglich und herausfand dass die numerischen Bewertungsmethoden menschliche Fachleute übertrafen.

In den Jahren seit Meehls Veröffentlichung haben sich Algorithmen für viele Probleme verbreitet, bei denen professionelle Intuition zwar von Nutzen ist, aber auch ein hohes Maß an Unsicherheit und Unvorhersehbarkeit herrscht.

Es hat sich gezeigt, dass Algorithmen bei Aufgaben wie der Vorhersage der Dauer von Krankenhausaufenthalten, der Diagnose von Herzerkrankungen, dem Risiko eines kriminellen Rückfalls und der Anfälligkeit von Babys für den plötzlichen Kindstod und anderen Problemen die Intuition von Experten übertreffen.

Tatsächlich könnten Checklisten, Scores und Algorithmen in etwa 60 % der Fälle die menschliche Intuition durchaus übertreffen (siehe das hervorragende Buch „Thinking Fast and Slow“ von Daniel Kahneman, der 2002 den Nobelpreis für Wirtschaftswissenschaften für seine Arbeit bei der Anwendung psychologischer Erkenntnisse gewann). Wirtschaftstheorie. Es gibt ein interessantes Kapitel mit dem Titel „Algorithmen vs. Intuition “.

Bewertung von Modellen für maschinelles Lernen für Unternehmen: zwei Fallstudien

Vorhersage der Abwanderung von Schülern mithilfe einer Risikobewertung

Eine Universität kontaktierte uns mit dem Wunsch, die Abbrecherquoten ihrer Studierenden zu verstehen. Ich habe den Studentenfürsorgebeauftragten der Universität gefragt, was ihrer Meinung nach die Hauptfaktoren sind, die dazu führen, dass Studenten ihr Studium abbrechen, und sie sagten mir, dass das Haushaltseinkommen , Alleinerziehende und die Noten der Studenten die Hauptfaktoren seien.

Uns wurde eine anonymisierte Datenbank der Studierendenliste über einen Zeitraum von mehreren Jahren zur Verfügung gestellt, zusammen mit Informationen zu Studierendennoten, Bewerbungsterminen und Daten zum sozioökonomischen Hintergrund der Studierenden. Die Organisation verfügte über ein System, bei dem Studierende, bei denen das Risiko eines Studienabbruchs festgestellt wurde, von einem Studienberater kontaktiert wurden, der ihnen Unterstützung anbot und versuchte, sie wieder auf den richtigen Weg zu bringen. Es war nicht möglich, jedem Schüler eine Einzelintervention zu geben, daher mussten diese Interventionen zielgerichtet erfolgen.

Wichtig für den Bildungsanbieter war auch die Tatsache, dass staatliche Mittel auf der Grundlage der Gesamtzahl der Studierenden bis zu einem bestimmten Stichtag vergeben werden. Ziel der Studie war es daher, die Ursachen für die Abwanderung von Studierenden zu verstehen und diese zu reduzieren insgesamt und zu bestimmten wichtigen Terminen.

Wir haben versucht, eine Reihe verschiedener prädiktiver Modelle für maschinelles Lernen zu erstellen, darunter einen vollständigen Black-Box-Ansatz wie Microsoft Azure Machine Learning (eine Drag-and-Drop-Schnittstelle für maschinelles Lernen), Random Forest und ein einfaches lineares Regressionsmodell .

Das lineare Regressionsmodell ergab das folgende Bewertungsrezept:

Start at 40 points

Dieses lineare Bewertungsmodell ist eine effektive Geschäftsanwendung des maschinellen Lernens.

Dieser Wert ergibt einen Mindestwert von 0 und einen Höchstwert von 100.

Überraschenderweise übertraf dieser Wert, der von Administratoren mit Stift und Papier oder Excel ermittelt werden kann, die ausgefeilteren Modelle des maschinellen Lernens. Es erwies sich auch als genauer als das derzeitige System der Einrichtung, Interventionen entsprechend der Intuition der Lehrer auszurichten.

Schön ist auch, dass die Punktzahl in eine Sigmoid-Funktionsformel eingespeist und in eine Wahrscheinlichkeit umgewandelt werden kann, dass der Student seinen Kurs abschließt (zwischen 0 und 1).

Sie können mit einigen Werten in der Tabelle unten experimentieren. Können Sie einen Studenten simulieren, der den Kurs mit hoher Wahrscheinlichkeit abschließen oder abbrechen wird?

AttributeWeight (B)Input for this student (C)Score (D)Formula for column D
start at score40140=B2*C2
good grades55=B3*C3
low household income-100=B4*C4
single parent family-100=B5*C5
age above 18 at start of course520=B6*C6
student applied early3535=B7*C7
student applied late-100=B8*C8
student had poor attendance-100=B9*C9
TOTAL SCORE=SUM(D2:D9)=SUM(D2:D9)
probability of dropping out of course=1/(1+EXP(D10*0.04-0.3))=1/(1+EXP(D10*0.04-0.3))

Wenn Sie einen Schüler mit guten Noten, einem hohen Haushaltseinkommen usw. erstellen, sollten Sie in der Lage sein, einen Schüler mit einer Punktzahl von 100 zu erstellen. Dasselbe gilt, wenn Sie alle Werte auf 0 setzen, mit Ausnahme derjenigen mit negativen Gewichtungen ( geringes Haushaltseinkommen, Alleinerziehende, Student). Wenn Sie sich verspätet beworben haben, der Student war schlecht anwesend ), können Sie eine Punktzahl von Null ausgeben, was einen Hochrisikostudenten darstellt.

Wir haben berechnet, dass die Einrichtung die Verbleibquoten erheblich verbessern könnte, wenn die 15 % der Studierenden mit der niedrigsten Punktzahl eine gezielte Intervention erhalten würden.

Ich stelle mir vor, dass ein ähnliches Modell für die Vorhersage der Mitarbeiterfluktuation entwickelt werden könnte.

Lead-Scoring-Modell für B2B-Verkäufe (Business-to-Business) unter Verwendung eines linearen Scoring-Modells

Ein wichtiger Bestandteil des Lead-Managements für Unternehmen ist ein Lead-Scoring-Modell. Insbesondere B2B-Unternehmen müssen in der Lage sein, eingehende Leads danach zu bewerten und einzustufen, wie wahrscheinlich es ist, dass sie Kunden werden, und wie viel Umsatz sie bei einer Konvertierung wahrscheinlich generieren werden.

Ich habe einen Datensatz eingehender Verkaufsanfragen genommen, die Fast Data Science erhalten hat, und konnte das folgende logistische Regressionsmodell trainieren:

Start at 88 points

Bewertungsmodell für eingehende Vertriebskontakte. Dadurch wird ein Score zwischen 0 und 100 generiert.

Ich habe festgestellt, dass diese einfache Bewertungsmethode Leads mit einer Genauigkeit von 75 % und einer AUC von 82 % klassifizieren kann, was genauso gut ist wie ein textbasierter Klassifikator auf denselben Daten , aber für den Benutzer weitaus verständlicher.

Anhand des Bewertungsalgorithmus lässt sich auf den ersten Blick erkennen, dass Nachrichten, die Links enthalten oder von Hotmail-Konten statt von Unternehmenskonten stammen, am stärksten bestraft werden (wie zu erwarten wäre).

Machine learning for business: the scoring model was able to predict lead value 75% of the time.

Maschinelles Lernen für Unternehmen: Das Scoring-Modell konnte den Lead-Wert in 75 % der Fälle vorhersagen.

Sie können dieses Lead-Scoring-Modell testen, indem Sie das untenstehende Kontaktformular ausfüllen. Versuchen Sie, eine Nachricht mit vielen Hyperlinks zu verfassen, um zu sehen, wie sich dies auf die Punktzahl auswirkt!

Name:
Email:
Message:
start at score88
message text contains URL0
sender used generic email0
message text contained negative keywords0
message text mentions [Fast Data Science](/fast-data-science-company) or relevant people by name0
message text contains industry-relevant keywords0
TOTAL SCORE88🟡
probability of lead33.3%

(So funktioniert es: Ich habe ein paar reguläre Ausdrücke in Javascript geschrieben, um den Nachrichteninhalt nach Schlüsselwörtern zu durchsuchen, die sich auf die Punktzahl auswirken.)

Die Vor- und Nachteile einfacher Modelle für maschinelles Lernen für Unternehmen

Die Vorteile eines einfachen Scoring-Modells

Ein Bewertungsrezept wie dieses ist für Unternehmen äußerst hilfreich, da das Modell erklärbar ist. Die den Risikofaktoren zugewiesenen Gewichte ermöglichen einen transparenten Einblick in die Risikotreiber.

Insbesondere war nicht sofort klar, dass das Datum der Studienbewerbung eines Studenten ein Risikofaktor sein könnte, obwohl wir intuitiv verstehen können, dass ein Student, der sich spät im Jahr für einen Kurs bewirbt, seine Studienoptionen möglicherweise nicht gründlich durchdacht hat oder sich beworben hat Sie entscheiden sich für diese Institution als zweite Wahl, nachdem sie anderswo abgelehnt wurden, was mit einem Risiko verbunden sein könnte.

Neben Transparenz und Erklärbarkeit bestehen die weiteren klaren Vorteile darin, dass Sie kein maschinelles Lernmodell einsetzen müssen, um das Risiko zu berechnen, und dass dies auf Papier erfolgen kann.

Die Nachteile einfacher linearer Modelle

Wenn Sie sich für ein einfaches lineares Bewertungsmodell wie das Studentenrisikomodell oder das B2B-Lead-Bewertungsmodell oben entscheiden, müssen Sie auf einige Fallstricke achten:

  • Wenn die Beziehung zwischen den Daten nicht linear ist, kann das Modell damit nicht umgehen.

  • Wenn es große Ausreißer gibt (z. B. ein Mitarbeiter, der zehnmal so viel verdient wie alle anderen), kann die lineare Regression diese Fälle nicht bewältigen.

  • jegliche Komplexität der Interaktion zwischen Features geht verloren. Beispielsweise können Noten für Studierende mit höherem Einkommen keine Rolle spielen, für Studierende mit geringerem Einkommen jedoch einen großen Unterschied machen.

  • Die lineare Regression funktioniert nicht so gut, wenn einige der Eingaben in das Modell miteinander korrelieren oder sich gegenseitig beeinflussen.

Aufgrund seiner Einfachheit muss bei der Auswahl der Funktionen, die Sie in einem solchen Modell verwenden, große Sorgfalt walten. Die am einfachsten zu bearbeitenden Funktionen sind häufig Binärwerte.

Warum sind Formeln genauer als die menschliche Intuition?

Es ist keine Überraschung, dass Formeln und maschinelles Lernen in vielen Bereichen die Intuition von Experten übertroffen haben. Kahneman und Meehl weisen beide darauf hin, dass das Problem darin liegen könnte, dass menschliche Entscheidungsträger zu einer Informationsüberflutung neigen: Sie überschätzen den Einfluss unbedeutender Faktoren auf das Ergebnis.

Beispielsweise betrachtete die oben genannte Bildungseinrichtung Schüler, die in Pflegeheimen untergebracht waren, als besonders gefährdet, wohingegen das lineare Regressionsmodell zeigt, dass, sobald vorherige Noten, Bewerbungsdatum und der Grad der sozialen Benachteiligung ihrer Wohnadresse bekannt waren, Informationen über die Pflege in Pflegeheimen verfügbar waren Die Geschichte hat der Vorhersage keinen weiteren Wert verliehen.

Wann sollte ein Experte also auf sein Bauchgefühl hören und zulassen, dass seine Intuition die Vorhersage eines Algorithmus außer Kraft setzt?

Paul Meehl behauptete, dass Ärzte selten von algorithmischen Schlussfolgerungen abweichen sollten. Als Beispiel nannte er das berühmte „Beinbruch“-Szenario: Ein Algorithmus sagt voraus, dass ein Professor mit einer Wahrscheinlichkeit von 90 % ins Kino geht. Aber wir haben noch eine zusätzliche Information: Die Person hat sich kürzlich das Bein gebrochen. Dies ist ein objektiver Beweis, der die 90 %-Vorhersage des Algorithmus außer Kraft setzen sollte. Meehl argumentierte jedoch, dass Kliniker selten Zugang zu dieser Art von Informationen hätten und es sich daher selten leisten könnten, algorithmische Vorhersagen völlig außer Acht zu lassen.

Whether the clinician tends to improve over the table under these conditions is an empirical problem. For instance, suppose that... we are trying to predict whether a given professor will attend the movies on a given night... we arrive at a probability of .90 that he will attend the neighborhood theater, the present night being Friday. The clinician, however, knows in addition to these facts that Professor A has recently broken his leg. This single fact is sufficient to change the probability of .90 to a probability of approximately zero. Paul Meehl, Clinical versus Statistical Prediction (1954)

Wie können wir aus unserer Intuition heraus starke Bewertungsmodelle entwickeln, wenn keine Daten vorliegen?

Es sind nicht immer Daten verfügbar, um eine Formel mithilfe der linearen Regression zu trainieren, wie in den beiden oben genannten Beispielen, aber additive Bewertungsmodelle können auch aus der menschlichen Intuition abgeleitet und bei Bedarf anschließend mit Daten untermauert werden.

Bewertungsrezept für das Risiko klinischer Studien: eine Fallstudie

Wir arbeiten an einem ähnlichen Projekt, bei dem klinische Studien nach Risiko bewertet werden , und der Kunde hat uns dabei geholfen, ein Rezept zu entwickeln, um klinische Studien mit Werten zwischen 0 und 100 zu bewerten, wobei 0 einem hohen Risiko und 100 einem niedrigen Risiko entspricht. Da keine quantitativen Risikodaten verfügbar waren, mussten wir unsere Intuition und ein Abstimmungssystem unter Fachexperten nutzen, um die den Eingaben zugewiesenen Gewichtungen zu bestimmen. Die Struktur des endgültigen Modells ist jedoch identisch mit der Struktur der in meinen Fallstudien oben beschriebenen Regressionsmodelle.

Eine klinische Studie, die einen statistischen Analyseplan enthält oder bei der die Stichprobengröße mithilfe einer Simulation bestimmt wurde, ist eine gut geplante klinische Studie und würde auf der Skala eine hohe Punktzahl erreichen, wohingegen klinische Studien , bei denen die Rekrutierung einer kleinen oder unzureichenden Anzahl von Teilnehmern geplant ist, erhalten würden eine niedrige Punktzahl. Weitere Informationen zu den Faktoren, die zum Risiko eines nicht informativen Endes einer klinischen Studie beitragen, können Sie auf der Projektwebsite lesen.

Bewertungsmodell für das Risiko von Neugeborenen – der APGAR-Score

Historisch gesehen wussten Geburtshelfer und Hebammen immer, dass Säuglinge, die nicht sofort nach der Geburt zu atmen begannen, einem hohen Risiko für unerwünschte Folgen wie Hirnschäden oder den Tod ausgesetzt waren. Normalerweise nutzen sie ihr klinisches Urteilsvermögen und ihre Expertenerfahrung, um festzustellen, ob das Baby gefährdet ist oder nicht.

Im Jahr 1953 wurde die Anästhesistin Virginia Apgar von einer Assistenzärztin gefragt, wie sie eine systematische Beurteilung eines Neugeborenen vornehmen würde. Sie konnte sich spontan fünf Variablen ausdenken: Herzfrequenz, Atmung, Reflex, Muskeltonus und Farbe , die jeweils als niedrig, mittel oder hoch bewertet werden konnten. Sie hat daraus eine Regressionsformel gemacht, die heute als APGAR-Score bekannt ist:

Start at 0 points Appearance (skin color): add 0, 1 or 2 points Pulse (heart rate): add 0, 1 or 2 points Grimace (reflex irritability): add 0, 1 or 2 points Activity (muscle tone): add 0, 1 or 2 points Respiration: add 0, 1 or 2 points

Der APGAR-Score war eine der bahnbrechenden Checklisten, die im medizinischen Bereich weit verbreitet waren. Es drückt das Risiko eines Neugeborenen auf einer Skala von 0 bis 10 aus.

Im Jahr 1955 analysierte Dr. Apgar die APGAR-Werte von 15.348 Säuglingen und konnte einen Zusammenhang zwischen niedrigen APGAR-Werten und Asphyxie feststellen.

Dem APGAR-Score wird mittlerweile zugeschrieben, dass er das Leben Tausender Säuglinge weltweit gerettet hat, obwohl er aufgrund der Fortschritte in der Medizin inzwischen von anderen Scoring-Methoden abgelöst wurde.

Obwohl das APGAR-Modell selbst einfach ist, liegt die Genialität seines Designs in der Auswahl der Funktionen.

Die Position eines Spielers im Schach bewerten

Ein weiteres lineares Bewertungsmodell, das ich gefunden habe, ist das Schachspiel. Spieler berechnen die Stärke ihrer Figuren auf dem Brett häufig anhand des folgenden Punktemodells:

Chess scoring model Pawn	1 Knight	3 Bishop	3 Rook	5 Queen	9

Obwohl der Punktestand nicht Teil der Regeln ist und keinen direkten Einfluss auf das Spielgeschehen hat, hilft er den Lernenden, die relativen Werte einer Schachfigur schnell zu verstehen und den Wert von Schlägen und Schlagabschlüssen einzuschätzen.

In erster Näherung ist das lineare Bewertungsmodell sehr nützlich und wird daher in den meisten Einführungen in das Spiel verwendet.

Das obige Bewertungsmodell wird seit dem 18. Jahrhundert verwendet. Es wurde für Computeralgorithmen wie Stockfish angepasst, das Brettkonfigurationen in „Centipawns“ bewertet, wobei ein Springer etwa 300 Centipawns usw. wert ist.

Bei Schachwertungsmodellen wie Stockfish variieren die Werte der Figuren je nach Brettkonfiguration und Spielphase. Figuren mit großer Reichweite wie Türme, Damen und Läufer werden gegen Ende einer Schachpartie mächtiger, da das Brett weniger überladen wird und die Werte auch davon beeinflusst werden, welche anderen Figuren ein Spieler und der Gegner besitzen.

Bewertung des Risikos eines Data-Science-Projekts

Bei Fast Data Science haben wir den in der Pharmaindustrie verwendeten Risiko- und Komplexitätsmodellansatz für Data Science ( NLP )-Projekte angepasst. Im Bereich „Ressourcen“ unserer Website finden Sie eine Risikocheckliste zur Identifizierung von NLP-Projekten mit hohem Risiko sowie ein Excel-Kostenmodellierungstool für NLP-Projekte . Die Parameter dieser Tools wurden durch die Durchführung eines Regressionsmodells für einige unserer vergangenen Projekte abgeleitet, um Schlüsselfaktoren zu identifizieren, die zu Kosten, Komplexität und Risiko beitragen.

Warum bringen einfache Scoring-Modelle für uns Menschen so viel Wert?

Ein einfaches Modell wie die lineare Regression hat nur sehr wenige Parameter, da es sich um einen additiven Prozess handelt, bei dem Eingaben mit unterschiedlichen Gewichtungen hinzugefügt werden. Vorausgesetzt, dass sinnvolle Eingaben verwendet werden, kann nicht viel schief gehen.

Ich mag die Transparenz, die sich aus einer einfachen Bewertung auf einer Skala von 0 bis 10 oder 0 bis 100 ergibt, sehr. Für Menschen ist es schwierig, Wahrscheinlichkeiten zu interpretieren. Wir haben uns in einer sehr kurzen Zeitspanne der Evolution mit Konzepten wie Wahrscheinlichkeiten beschäftigt, und ich glaube nicht, dass das menschliche Gehirn sie intuitiv handhabt.

Daniel Kahneman führte eine Reihe von Verhaltensexperimenten durch, bei denen er Freiwilligen Wetten (Geldwetten) anbot. Dabei konnte er zeigen, dass die Teilnehmer kleine Wahrscheinlichkeiten, wie z. B. eine 1-prozentige Gewinnchance auf 100 $, durchweg überschätzen und große Wahrscheinlichkeiten, wie z. B. 99 %, unterschätzen Sie neigen dazu, Wetten mit solchen Quoten irrationalerweise anzunehmen oder abzulehnen.

Ein Bewertungsmodell umgeht unsere Wahrscheinlichkeitsblindheit und kann von den Beteiligten verstanden werden. Wie ich jedoch oben am Beispiel des Studentenabwanderungsrisikomodells und des Lead-Classifier-Modells gezeigt habe, kann eine Punktzahl auf einer Skala von 0 bis 100 mithilfe der Sigmoid-Funktion oder einer Alternative immer noch in eine Wahrscheinlichkeit (oder etwas Ähnliches) umgewandelt werden und bietet somit das Beste aus beiden Welten.

Manchmal sind Daten verfügbar, um ein Bewertungsmodell mithilfe der logistischen Regression oder eines ähnlichen statistischen Algorithmus zu trainieren, aber selbst wenn die menschliche Intuition genutzt wird, um ein Modell von Grund auf zu erstellen, wie im Fall des APGAR-Scores, ist es dennoch sinnvoll, eine Checkliste für die Bewertung zu haben .

Ein Hinweis zur Kausalität in diesen Modellen

Es ist wichtig zu beachten, dass diese Bewertungsmodelle zwar für Vorhersagen nützlich sind, uns aber nichts über Ursache und Wirkung sagen. Wenn wir beispielsweise wissen, dass ein Studierender, der sich verspätet für ein Studium beworben hat, mit größerer Wahrscheinlichkeit das Studium abbricht, können wir so Studierende mit hohem Risiko identifizieren. Dies bedeutet jedoch nicht, dass eine verspätete Bewerbung dazu geführt hat, dass ein Student das Studium abgebrochen hat ihren Verlauf. Es ist durchaus möglich, dass ein weiterer, unbekannter Faktor (Privatleben, Motivation usw.) dazu geführt hat, dass sich der Student verspätet beworben hat und sich auch auf seine Studienleistungen ausgewirkt hat.

Wenn Sie daran interessiert sind, die Ursachen eines bestimmten Ergebnisses zu ermitteln, stehen Ihnen andere Tools zur Verfügung. Die einfachste Möglichkeit ist die Intervention, die in den frühen Phasen der Arzneimittelentwicklung in der Pharmaindustrie eingesetzt wird: die randomisierte kontrollierte Studie (RCT), bei der die Teilnehmer nach dem Zufallsprinzip in zwei Gruppen aufgeteilt werden und eine Gruppe eine Intervention erhält, während die andere als Kontrolle dient.

Wenn Interventionen aus praktischen oder ethischen Gründen keine Option sind, greifen Ökonomen und Statistiker manchmal auf Pseudoexperimente zurück, beispielsweise auf die Schätzung instrumenteller Variablen . Ich habe einen Blogbeitrag über kausales maschinelles Lernen geschrieben, in dem ich versucht habe, die Kausalität aus der Perspektive des maschinellen Lernens zu untersuchen.

Schlussfolgerungen

Mit einfachen Modellen für maschinelles Lernen können wir Organisationen und Unternehmen einen großen Mehrwert bieten, vorausgesetzt, die Funktionen werden sorgfältig ausgewählt. Das obige Lead-Klassifizierungsmodell hängt beispielsweise von einer intelligenten Auswahl von Schlüsselwörtern ab, und ich habe die Schlüsselwörter ausgewählt, nachdem ich Wortwolken aus den Daten generiert habe. Ebenso konnte Dr. Apgar aufgrund ihrer klinischen Erfahrung auswählen, welche Kriterien in den APGAR-Score einbezogen werden sollten.

Da Regressionsmodelle so einfach sind, ist es für Benutzer sehr einfach zu verstehen, wie verschiedene Faktoren ein Ergebnis beeinflussen, und auf einen Blick zu erkennen, welcher Faktor dominiert.

Obwohl Regressionsmodelle nicht immer die genauesten sind, sind sie aufgrund ihrer Einfachheit möglicherweise das am besten geeignete Modell für die Implementierung in einem Geschäftsumfeld.

Fachleute in den unterschiedlichsten Bereichen, von der Medizin über die Ingenieurwissenschaften bis hin zur Rechtswissenschaft , sind mit der Menge an Informationen und Schulungen, die sie sich merken müssen, überfordert, und Checklisten und Bewertungen helfen uns dabei, den Überblick darüber zu behalten, welche Faktoren wichtig und welche unbedeutend sind.

Verweise

Atul Gawante, The Checklist Manifesto: How to Get Things Right (2011)

Daniel Kahneman, Thinking Fast and Slow (2011)

Paul Meehl, Causes and Effects of my Disturbing Little Book (1986)

Paul Meehl, Clinical Versus Statistical Prediction: A Theoretical Analysis and a Review of the Evidence (1954)

Robyn M. Dawes, The Robust Beauty of Improper Linear Models in Decision Making (1979)

Virginia Apgar, A Proposal for a New Method of Evaluation of the Newborn Infant, Current Researches in Anesthesia and Analgesia (1953)

Ihre NLP-Karriere wartet!

Bereit für den nächsten Schritt in Ihrer NLP-Reise? Vernetzen Sie sich mit Top-Arbeitgebern, die Talente in der natürlichen Sprachverarbeitung suchen. Entdecken Sie Ihren Traumjob!

Finden Sie Ihren Traumjob

Big-Data-Beratung – 4 häufigste Probleme gelöst
Data scienceBig data

Big-Data-Beratung – 4 häufigste Probleme gelöst

Mittlerweile sind es Organisationen aller Größenordnungen und fast aller Sektoren werden zunehmend datengesteuert, insbesondere als größere Datenspeicher Systeme und schnellere Computer treiben die Leistungsgrenzen immer weiter voran.

Zwei Revolutionen im Abstand von 200 Jahren: die Datenrevolution und die industrielle Revolution
Ai and societyData science

Zwei Revolutionen im Abstand von 200 Jahren: die Datenrevolution und die industrielle Revolution

Aufgrund des umfangreichen Einsatzes von Technologie und der Arbeitsteilung hat die Arbeit des durchschnittlichen Gig-Economy-Arbeiters jeden individuellen Charakter und damit auch jeden Charme für den Arbeitnehmer verloren.

KI im Personalwesen: Die Zukunft der Arbeit verändern
Ai and societyData science

KI im Personalwesen: Die Zukunft der Arbeit verändern

Die Auswirkungen von KI auf die Humanressourcen Die Arbeitswelt verändert sich rasant, sowohl aufgrund der Einführung traditioneller Data-Science-Praktiken in immer mehr Unternehmen als auch aufgrund der zunehmenden Beliebtheit generativer KI-Tools wie ChatGPT und Googles BARD bei nicht-technischen Arbeitnehmern.

What we can do for you

Transform Unstructured Data into Actionable Insights

Contact us