Kapitel 3. Deine erste verteilte Anwendung erstellen

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

Nachdem du nun die Grundlagen der Ray-API in Aktion gesehen hast, lass uns etwas Realistischeres damit bauen.Am Ende dieses Kapitels wirst du ein Reinforcement Learning (RL)-Problem von Grund auf erstellt, deinen ersten Algorithmus dafür implementiert und Ray-Aufgaben und -Akteure verwendet haben, um diese Lösung auf einem lokalen Cluster zu parallelisieren - und das alles in weniger als 250 Codezeilen.

Dieses Kapitel richtet sich an Leser/innen, die noch keine Erfahrung mit RL haben. Wir arbeiten an einem einfachen Problem und entwickeln die nötigen Fähigkeiten, um es praktisch anzugehen. Da Kapitel 4 ganz diesem Thema gewidmet ist, überspringen wir alle fortgeschrittenen RL-Themen und die Sprache und konzentrieren uns nur auf das Problem. Aber selbst wenn du schon recht fortgeschrittene RL-Anwender/innen bist, wirst du wahrscheinlich von der Implementierung eines klassischen Algorithmus in einer verteilten Umgebung profitieren.

Dies ist das letzte Kapitel, in dem wir nur mit Ray Core arbeiten. Wir hoffen, du lernst zu schätzen, wie leistungsfähig und flexibel Ray Core ist und wie schnell du verteilte Experimente umsetzen kannst, die sonst nur mit erheblichem Aufwand zu skalieren wären.

Bevor wir uns an die Umsetzung machen, wollen wir kurz das RL-Paradigma näher erläutern. Wenn du bereits mit ...

Get Lernstrahl now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.