Kapitel 9. PyTorch Verteiltes Maschinelles Lernen Ansatz

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

PyTorch ist eine Open-Source-Bibliothek für maschinelles Lernen, die von Facebooks KI-Forschungsteam (FAIR) entwickelt und später der Linux Foundation zur Verfügung gestellt wurde. Sie wurde entwickelt, um die Erstellung künstlicher neuronaler Netze zu vereinfachen und Anwendungen wie Computer Vision, natürliche Sprachverarbeitung und mehr zu ermöglichen. Die primäre Schnittstelle zu PyTorch ist Python, aber sie basiert auf Low-Level C und C++ Code. Das ist ein ganz anderer Ansatz als bei Spark, das im Kern Scala und Java (JVM-basierte Programmiersprachen) verwendet.

In den vorherigen Kapiteln hast du die Bausteine des maschinellen Lernprozesses kennengelernt. Wir haben mit Spark begonnen und uns dann mit den verteilten Trainingsmöglichkeiten von TensorFlow beschäftigt. In diesem Kapitel werden wir uns PyTorch zuwenden. Ziel ist es, dass du besser verstehst, was PyTorch ist und wie sein verteiltes Training für maschinelles Lernen aus architektonischer und konzeptioneller Sicht funktioniert, damit du bessere Entscheidungen treffen kannst, wenn du mehrere Frameworks in einer verteilten Umgebung miteinander kombinierst.

Außerdem werden wir Schritt für Schritt ein Beispiel für die Arbeit mit verteiltem PyTorch durchgehen und dabei die vorherige Arbeit mit Spark in den Kapiteln 4 und 5 und Petastorm ...

Get Skalierung von Machine Learning mit Spark now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.