Suchen Sie Experten in Natürlicher Sprachverarbeitung? Veröffentlichen Sie Ihre Stellenangebote bei uns und finden Sie heute Ihren idealen Kandidaten!
Veröffentlichen Sie einen JobGesichtserkennungstechnologie gibt es schon seit geraumer Zeit, doch bis vor Kurzem war die Gesichtsanalyse für die meisten Zwecke nicht genau genug. Jetzt scheint es, dass Gesichtserkennung überall ist:
Der Grund, warum Gesichtserkennungssoftware in letzter Zeit viel besser und viel schneller geworden ist, liegt im Aufkommen von Deep Learning: leistungsfähigeren und parallelisierten Computern und besserem Softwaredesign. Ich werde darüber sprechen, was sich geändert hat.
Die ersten ernsthaften Versuche, einen Gesichtserkenner zu bauen, gab es in den 1980er und 90er Jahren und verwendeten etwas namens Eigenfaces . Ein Eigenface ist ein verschwommenes, gesichtsähnliches Bild, und eine Gesichtserkennung geht davon aus, dass jedes Gesicht aus vielen dieser Bilder besteht, die Pixel für Pixel übereinander gelegt werden.
Wenn wir ein unbekanntes Gesicht erkennen wollen, ermitteln wir einfach, aus welchen Eigengesichtern es wahrscheinlich besteht. Es überrascht nicht, dass die Eigenface-Methode nicht sehr gut funktionierte. Wenn Sie ein Gesichtsbild um einige Pixel nach rechts oder links verschieben, können Sie leicht erkennen, dass diese Methode fehlschlägt, da die Teile des Gesichts nicht mehr mit dem Eigengesicht übereinstimmen.
Fast Data Science - London
Die nächste Generation von Gesichtserkennungsgeräten würde jedes Gesichtsbild aufnehmen und wichtige Punkte wie den Mundwinkel oder eine Augenbraue finden. Die Koordinaten dieser Punkte werden Gesichtsmerkmalspunkte genannt. Ein bekanntes kommerzielles Programm wandelt jedes Gesicht in 66 Merkmalspunkte um.
Gesichtsmerkmalspunkte, eine handcodierte Methode der Gesichtserkennungstechnologie. Bildquelle
Um zwei Gesichter zu vergleichen, vergleichen Sie einfach die Koordinaten (nach der Anpassung, falls ein Bild leicht von der Ausrichtung abweicht).
Es überrascht nicht, dass die Methode der Gesichtsmerkmalskoordinaten besser als die Eigenfaces-Methode ist, aber immer noch suboptimal. Wir werfen viele nützliche Informationen weg: Haarfarbe, Augenfarbe, jede Gesichtsstruktur, die nicht durch einen Merkmalspunkt erfasst wird usw.
Insbesondere bei der letzten Gesichtsanalysemethode programmierte ein Mensch in einen Computer die Definition einer „Augenbraue“ usw. Die aktuelle Generation maschinell lernender Gesichtserkennungsmodelle wirft all dies über den Haufen.
Dieser Ansatz nutzte Convolutional Neural Networks (CNNs). Dabei wird eine Art Schablone wiederholt über das Bild geführt und herausgefunden, wo Teilbereiche des Bildes mit bestimmten Mustern übereinstimmen.
Beim ersten Mal greifen Sie Ecken und Kanten auf. Nachdem Sie dies fünf Mal getan haben, beginnen Sie jedes Mal am Ausgang des vorherigen Durchlaufs, Teile eines Auges oder Ohrs aufzunehmen. Nach 30 Malen haben Sie ein ganzes Gesicht erkannt!
Der nette Trick besteht darin, dass niemand die Muster definiert hat, nach denen wir suchen, sondern sie vielmehr aus dem Training des Netzwerks mit Millionen von Gesichtsbildern stammen.
Natürlich kann dies eine Achillesferse des CNN-Ansatzes sein, da Sie möglicherweise nicht genau wissen, warum ein Gesichtserkenner eine bestimmte Antwort gegeben hat.
Das Hindernis, auf das Sie stoßen, wenn Sie Ihren eigenen CNN-Gesichtserkenner entwickeln möchten, ist: Woher können Sie Millionen von Bildern bekommen, um das Modell zu entwickeln? Viele Leute sammeln dafür Bilder von Prominenten aus dem Internet.
Sie können jedoch viel mehr Bilder erhalten, wenn Sie die Leute dazu bringen, Ihnen ihre persönlichen Fotos kostenlos zur Verfügung zu stellen!
Aus diesem Grund verfügen Facebook, Microsoft und Google über einige der genauesten Gesichtserkennungsgeräte, da sie über die erforderlichen Ressourcen verfügen, um die Modelle des maschinellen Lernens für die Gesichtserkennung zu trainieren.
Der CNN-Ansatz ist alles andere als perfekt und viele Unternehmen werden zusätzlich zu dem, was ich beschrieben habe, einige Anpassungen vornehmen, um seine Einschränkungen auszugleichen, wie z. B. die Korrektur von Pose und Beleuchtung, oft unter Verwendung eines 3D-Netzmodells des Gesichts.
Gesichtserkennungsmodelle für maschinelles Lernen machen rasante Fortschritte und jedes Jahr bringt der Stand der Technik in der Gesichtserkennung und -analyse eine spürbare Verbesserung mit sich.
Wenn Sie mehr über diesen Bereich oder ähnliche Projekte erfahren möchten oder im Jahr 2024 Geschäftsanwendungen von Gesichtserkennungsmodellen für maschinelles Lernen implementieren möchten, nehmen Sie bitte Kontakt mit uns auf .
Suchen Sie Experten in Natürlicher Sprachverarbeitung? Veröffentlichen Sie Ihre Stellenangebote bei uns und finden Sie heute Ihren idealen Kandidaten!
Veröffentlichen Sie einen JobMittlerweile sind es Organisationen aller Größenordnungen und fast aller Sektoren werden zunehmend datengesteuert, insbesondere als größere Datenspeicher Systeme und schnellere Computer treiben die Leistungsgrenzen immer weiter voran.
Aufgrund des umfangreichen Einsatzes von Technologie und der Arbeitsteilung hat die Arbeit des durchschnittlichen Gig-Economy-Arbeiters jeden individuellen Charakter und damit auch jeden Charme für den Arbeitnehmer verloren.
Die Auswirkungen von KI auf die Humanressourcen Die Arbeitswelt verändert sich rasant, sowohl aufgrund der Einführung traditioneller Data-Science-Praktiken in immer mehr Unternehmen als auch aufgrund der zunehmenden Beliebtheit generativer KI-Tools wie ChatGPT und Googles BARD bei nicht-technischen Arbeitnehmern.
What we can do for you