Inhalt des Trainings
Das Red Hat Certified Specialist in OpenShift AI Exam testet die Fähigkeit der Kandidaten, OpenShift AI bereitzustellen und so zu konfigurieren, dass Modelle für maschinelles Lernen erstellt, bereitgestellt und verwaltet werden, um KI-fähige Anwendungen zu unterstützen.
Nach erfolgreichem Abschluss erhalten Sie die Zertifizierung als Red Hat Certified Specialist in OpenShift AI, die auch auf die Qualifikation als Red Hat Certified Architect (RHCA®) angerechnet wird.
Vorkenntnisse
An dieser Prüfung Teilnehmende sollten:
- Am Training Red Hat OpenShift Administration I: Containers & Kubernetes (DO180) teilgenommen haben oder vergleichbare Erfahrungen in der Verwendung von OpenShift Container Platform vorweisen können.
- Am Training Red Hat OpenShift Administration II: Operating a Production Kubernetes Cluster (DO280) teilgenommen haben oder vergleichbare Erfahrungen in der Verwendung von OpenShift Container Platform vorweisen können.
- Am Training Developing and Deploying AI/ML Applications on Red Hat OpenShift AI (AI267) teilgenommen haben oder vergleichbare Erfahrungen in der Verwendung von den Funktionen von OpenShift AI vorweisen können.
Detail-Inhalte
Lerninhalte für die Prüfung
Teilnehmende mit dem Ziel Red Hat Certified Specialist in OpenShift AI sollten in der Lage sein, die folgenden Aufgaben zu erfüllen. Relevante produktspezifische Dokumentation wird bereitgestellt, aber die Teilnehmenden sollten darauf vorbereitet sein, diese Aufgaben ohne Hilfe auszuführen.
- Installieren von Red Hat OpenShift AI
- Konfigurieren und Verwalten von RHOAI
- Verwalten von Nutzer- und Gruppenberechtigungen und -ressourcen
- Verwalten des DataScienceCluster-Objekts
- Erstellen und Veröffentlichen von benutzerdefinierten Notebook Images
- Importieren von Notebook Images
- Verwalten von Culling im Leerlauf von Notebooks
- Größenanpassung der Standard-Workbench- und Modellserver
- Arbeiten an Data Science-Projekten
- Erstellen, Ändern und Löschen von Data Science-Projekten
- Verwalten von Data Science-Projektberechtigungen
- Verwenden von Data Science Workbenches
- Verstehen des Jupyter-Ökosystems
- Erstellen, Ändern und Löschen von Workbenches
- Starten und Stoppen von Workbenches
- Verwalten von Datenverbindungen
- Verwalten von Persistent Volume Claim-Objekten
- Überprüfen von Workbench-Ressourcen
- Verwenden von Git für die gemeinsame Verwaltung von Jupyter-Notebooks
- Hochladen eines vorhandenen Notebooks aus einem Git-Repository
- Übertragen aktualisierter Notebooks per Push an ein Git-Repository
- Arbeiten mit Modellen für maschinelles Lernen
- Grundlegende Konzepte des maschinellen Lernens
- Trainieren von Modellen in Python mit beliebten grundlegenden Libraries
- Skalierbares Laden von Daten
- Überwachen und Bewerten des Trainingsprozesses
- Speichern und Laden von Modellen
- Speichern, Exportieren und Freigeben von Modellen
- Bereitstellen von Modellen als Python-Anwendungen
- Erstellen einer benutzerdefinierten Runtime in KServe
- Bereitstellen eines Modells mit ModelMesh
- Erstellen von Data Science Pipelines
- Erstellen von Pipelines mit Elyra
- Erstellen von Pipelines mit Kubeflow