Kapitel 7. Verteiltes Training mit Ray Train
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
In Kapitel 6 haben wir besprochen, wie man mit Ray-Datensätzen Kopien eines einfachen Modells auf Shards von Daten trainiert - aber es gibt noch viel mehr für verteiltes Training.Wie wir bereits in Kapitel 1 erwähnt haben, verfügt Ray über eine spezielle Bibliothek für verteiltes Training namens Ray Train. Sie enthält eine umfangreiche Suite von Trainingsintegrationen für maschinelles Lernen und ermöglicht es dir, deine Experimente nahtlos auf Ray-Clustern zu skalieren.
Zu Beginn dieses Kapitels zeigen wir dir, warum du dein ML-Training skalieren musst, und stellen dir die verschiedenen Möglichkeiten vor, dies zu tun. Danach stellen wir Ray Train vor und gehen ein ausführliches End-to-End-Beispiel durch. Außerdem behandeln wir einige Schlüsselkonzepte, die du für die Nutzung von Ray Train kennen musst, wie z. B. Präprozessoren, Trainer und Checkpoints. Zum Schluss gehen wir auf einige der fortgeschrittenen Funktionen ein, die Ray Train bietet. Wie immer kannst du das Notizbuch zu diesem Kapitel benutzen, um mitzuarbeiten.
Die Grundlagen der verteilten Modellbildung
Maschinelles Lernen ist oft sehr rechenintensiv.Je nachdem, welche Art von Modell du trainierst, ob es sich um einen gradientenverstärkten Baum oder ein neuronales Netz handelt, kannst du beim Training von ML-Modellen ...
Get Lernstrahl now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.