Ready for Production

Skalierbare KI/ML-Infrastrukturen Evaluieren, Automatisieren, Praxis

€ 79,90

Sofort lieferbar

€ 55,93

Sofort verfügbar

nur € 84,90

Sofort verfügbar

468 Seiten, , gebunden
Rheinwerk Computing, ISBN 978-3-8362-7393-0
468 Seiten,
E-Book-Formate: PDF, EPUB, Online
Rheinwerk Computing, ISBN 978-3-8362-7394-7
468 Seiten, , gebunden
E-Book-Formate: PDF, EPUB, Online
Rheinwerk Computing, ISBN 978-3-8362-7396-1
468 Seiten,
E-Book-Formate: PDF, EPUB, Online
Rheinwerk Computing, ISBN 978-3-8362-7397-8

Moderne KI/ML-Modelle brauchen leistungsstarke Infrastrukturen. Wie Sie abseits der Hypes resiliente, hochautomatisierte und autoskalierbare Systeme für Produktiv-Workloads aufbauen, zeigt Ihnen Oliver Liebel in diesem Wegweiser. Sie erfahren, wie Sie NVIDIAs Datacenter-GPUs nahtlos in Hypervisoren und moderne Container-Infrastrukturen integrieren, sie Operator-gestützt mit Kubernetes bzw. OpenShift verwalten und daraus praxistaugliche Setups machen, die im Unternehmenseinsatz und echten Business Cases bestehen.

Betrachtet wird der ganze Infrastruktur-Stack, mit Fokus auf effizienter Vollautomation: Von On-Premises-Installationen auf vSphere oder Cloud-Setups auf GCP und AWS über Plattform-Automation per IaaS/IaC sowie den GPU- und Network-Operatoren bis hin zu einem Ausblick auf AI End-to-End-Tool-Stacks.

  • Kubernetes- und OpenShift-Cluster mit NVIDIA-GPUs
  • Skalierbare und resiliente Infrastrukturen in der Cloud oder On-Prem
  • Vollautomation mit IaC und Operatoren
»Wahrlich komprimierter Inhalt, den der Autor verständlich vermittelt. Er führt Schritt für Schritt durch das Planen und Aufbauen einer eigenen ML/KI-Infrastruktur, ohne unnötige Worte zu verlieren. Auf den Punkt geschrieben.«

IT Administrator, Mai 2023

468 Seiten, gebunden, 35 mm. Breites Handbuchformat 19 x 24 cm. Schwarzweiß gedruckt auf 90g-Offsetpapier. Lesefreundliche Serifenschrift (TheAntiqua B 9,3 Pt.). Einspaltiges Layout.
E-Book zum Herunterladen in den Formaten PDF (12 MB), EPUB (12 MB) sowie als Onlinebuch. Dateien sind DRM-frei, mit personalisierter digitaler Signatur. Drucken, Copy & Paste sowie Kommentare sind zugelassen. Abbildungen in Farbe. Inhaltsverzeichnis, Index und Verweise im Text sind verlinkt. Weitere Informationen zum E-Book.

  1. Best Practices für Planung und Umsetzung

    Wenn Daten im Tera- oder Peta-Bereich verarbeitet werden müssen und Investitionen im sechs- oder siebenstelligen Bereich anstehen, ist durchdachte Planung unabdingbar. Mit Hintergrundwissen und fundierten Markteinschätzungen treffen Sie die richtigen Entscheidungen für zukunftssichere KI/ML-Projekte und haben alle Kostenfaktoren im Blick.

  2. Bewährte Technologie-Stacks für praxistaugliche Setups

    Sie arbeiten bereits mit Kubernetes und OpenShift? Dann wissen Sie, wie viel bei einer Cluster-Konfiguration schiefgehen kann. Oliver Liebel kennt komplexe Systeme aus jahrelanger Erfahrung und zeigt Ihnen mögliche Probleme und Fallstricke auf. Auf dieser Basis entsteht ein moderner Infrastruktur-Stack für KI-/ML-Anwendungen: sowohl in der Cloud als auch On-Premises.

  3. Setzen Sie auf Industriestandards

    Datacenter-GPUs von NVIDIA sind die Arbeitspferde moderner KI/ML-Infrastrukturen. In enger Zusammenarbeit mit NVIDIA wurden die vorgestellten Setups getestet und evaluiert. Profitieren Sie von dieser Praxiserfahrung und erfahren Sie, wie Sie leistungsstarke GPUs richtig in vollautomatisierte und skalierbare Container-Cluster integrieren.

  4. Zuverlässig und automatisiert

    Operator-gestützte Vollautomation ist ein Muss, um containerisierte KI/ML-Infrastrukturen skalierbar, resilient und kosteneffizient zu betreiben. Hands-on führen Sie zahlreiche Beispiele durch Konfigurationen von Praxissystemen, die durch ihren hohen Automationsgrad und Auto-Skalierbarkeit für aktuelle und zukünftige Anforderungen gerüstet sind.

Aus dem Inhalt

  • KI/ML: Grundlagen und Use Cases
  • Infrastruktur planen: On-Premises, Cloud oder Hybrid?
  • Technischer Background: KI/ML mit NVIDIA-GPUs
  • GPU-Modi: Passthrough-MIG vs. MIG-backed vGPU vs. vGPU
  • NVIDIA-GPUs auf vSphere On-Prem implementieren
  • NVIDIA AI Enterprise
  • KI/ML-Cluster mit Kubernetes und OpenShift
  • GPU-spezifische Operatoren
  • GPU-Cluster mit OpenShift
  • Von CI/CD über GitOps zu MLOps
  • ML-Pipelines & AI End-to-End
Komplettes Inhaltsverzeichnis
»
Profitieren Sie von Erfahrungen rund um den aktuellen Industriestandard in Sachen KI/ML.
«
Dipl.-Ing. Oliver Liebel ist LPI-zertifizierter Linux-Enterprise-Experte, Partner von Red Hat und SUSE und steht in engem Kontakt mit NVIDIAs EGX-Abteilung.
Autorenporträt

Stimmen zum Buch

Diese Bücher könnten Sie auch interessieren

Buch

€ 79,90 inkl. MwSt.

Sofort lieferbar

Kostenloser Versand nach Deutschland, Österreich und in die Schweiz

DSAG Mitglieder
Der Rabatt wird im Warenkorb sichtbar

E-Book

€ 55,93 inkl. MwSt.

Sofort verfügbar

DSAG Mitglieder
Der Rabatt wird im Warenkorb sichtbar

Bundle Buch + E-Book

nur € 84,90 inkl. MwSt.

Sofort verfügbar

Kostenloser Versand nach Deutschland, Österreich und in die Schweiz

DSAG Mitglieder
Der Rabatt wird im Warenkorb sichtbar

Kostenloser Versand
nach Deutschland, Österreich und in die Schweiz
Bequem zahlen
Kreditkarte, PayPal, Rechnung oder Bankeinzug
Schnelle Lieferung
Auch per Express