Kapitel 9. Dimensionalitätsreduktion durch Merkmalsextraktion

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

9.0 Einleitung

Es ist üblich, Zugang zu Tausenden oder sogar Hunderttausenden von Merkmalen zu haben. In Kapitel 8 haben wir zum Beispiel ein 256 × 256 Pixel großes Farbbild in 196.608 Merkmale umgewandelt. Da jedes dieser Pixel einen von 256 möglichen Werten annehmen kann, kann unsere Beobachtung außerdem256196608 verschiedene Konfigurationen annehmen. Viele Algorithmen für maschinelles Lernen haben Schwierigkeiten, aus solchen Daten zu lernen, weil es nie möglich sein wird, genügend Beobachtungen zu sammeln, damit die Algorithmen korrekt arbeiten können. Selbst bei eher tabellarischen, strukturierten Datensätzen können wir nach dem Feature-Engineering-Prozess leicht Tausende von Merkmalen erhalten.

Glücklicherweise sind nicht alle Merkmale gleich, und das Ziel der Merkmalsextraktion für die Dimensionalitätsreduktion besteht darin, unsere Merkmalsmenge poriginal so umzuwandeln, dass wir am Ende eine neue Menge pnew haben, bei der poriginal > pnew ist, wobei ein Großteil der zugrunde liegenden Informationen erhalten bleibt. Anders ausgedrückt: Wir reduzieren die Anzahl der Merkmale, ohne dass die Fähigkeit unserer Daten, hochwertige Vorhersagen zu treffen, darunter leidet. In diesem Kapitel werden wir eine Reihe von Techniken zur Merkmalsextraktion vorstellen, die genau dies ermöglichen. ...

Get Maschinelles Lernen mit Python Kochbuch, 2. now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.