Kapitel 5. Der Rahmen für probabilistisches maschinelles Lernen

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

Die Wahrscheinlichkeitstheorie ist nichts anderes als gesunder Menschenverstand, der auf Berechnungen reduziert wird.

-Pierre-Simon Laplace, Hauptverantwortlicher für epistemische Statistik und probabilistische Schlussfolgerungen

Erinnere dich an die Regel der umgekehrten Wahrscheinlichkeit aus Kapitel 2, die besagt, dass bei einer Hypothese H über einen Modellparameter und einem beobachteten Datensatz D:

P(H|D) = P(D|H) × P(H) / P(D)

Es ist einfach erstaunlich, dass diese triviale Umformulierung der Produktregel das Fundament ist, auf dem die komplexen Strukturen der epistemischen Inferenz im Allgemeinen und des probabilistischen maschinellen Lernens (PML) im Besonderen aufgebaut sind. Sie ist der Hauptgrund dafür, dass diese beiden Strukturen mathematisch solide und logisch schlüssig sind. Bei näherer Betrachtung werden wir sehen, dass die umgekehrte Wahrscheinlichkeitsregel bedingte und unbedingte Wahrscheinlichkeiten auf tiefgreifende Weise miteinander verbindet.

In diesem Kapitel werden wir jeden Begriff in der Regel analysieren und reflektieren, um ein besseres Verständnis für ihn zu erlangen. Außerdem werden wir untersuchen, wie diese Begriffe die Anforderungen an die nächste Generation von ML-Frameworks für Finanzen und Investitionen erfüllen, die wir in Kapitel 1 beschrieben ...

Get Probabilistisches maschinelles Lernen für Finanzen und Investieren now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.