Kapitel 10. Maschinelles Lernen und andere aufkommende Anwendungsfälle
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
In den vorangegangenen Kapiteln haben wir uns mit traditioneller Dateninfrastruktur wie Datenbanken, Streaming-Plattformen und Analyse-Engines beschäftigt, wobei der Schwerpunkt auf Kubernetes lag. Jetzt ist es an der Zeit, einen Blick über den Tellerrand zu werfen und die Projekte und Communities zu erkunden, die sich mit Cloud Native befassen, insbesondere im Bereich KI und ML.
Immer wenn mehrere Pfeile in die gleiche Richtung zeigen, lohnt es sich, aufmerksam zu sein. Die Richtungspfeile in der Dateninfrastruktur deuten alle auf einen allgemeinen Makrotrend der Konvergenz von Kubernetes hin, der durch mehrere miteinander verbundene Trends unterstützt wird:
Für die Verwaltung rechenintensiver KI/ML-Workloads, einschließlich solcher, die spezielle Hardware wie GPUs nutzen, entstehen gemeinsame Stacks.
Gemeinsame Datenformate tragen dazu bei, dass Daten effizient über Rechen-, Netzwerk- und Speicherressourcen hinweg verschoben werden können.
Die Speicherung von Objekten entwickelt sich zu einer gängigen Persistenzschicht für die Dateninfrastruktur.
In diesem Kapitel befassen wir uns mit verschiedenen aufkommenden Technologien, die diese Trends verkörpern, mit den Anwendungsfällen, die sie ermöglichen, und mit der Frage, wie sie dazu beitragen, dass du die wertvollen Ressourcen ...
Get Cloud Native Daten auf Kubernetes verwalten now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.