Mit Oracle Cloud Infrastructure (OCI) AI Blueprints können Sie GenAI-Workloads in wenigen Minuten bereitstellen, skalieren und überwachen. Nutzen Sie vorkonfigurierte, von OCI verifizierte Bereitstellungsvorlagen – inklusive Hardware-Empfehlungen, Softwarekomponenten und einsatzbereitem Monitoring.
Reduzieren Sie Komplexität und Unsicherheiten bei der Bereitstellung von KI-Workloads – mit Blueprints auf Basis von OCI-verifizierten Best Practices. Skalieren Sie zuverlässig, stellen Sie die Kompatibilität von Treibern und Anwendungen sicher und treffen Sie fundierte Entscheidungen in den Bereichen Observability und Management.
Stellen Sie geschäftskritische GenAI-Workloads in wenigen Minuten bereit und überwachen Sie diese – mit Blueprints, die verifizierte Hardware, Software und einsatzbereites Monitoring enthalten.
Setzen Sie auf vordefinierte Integrationen mit Drittanbieter-Tools wie Prometheus, Grafana und MLflow, um Ihre KI-Workloads effizient zu überwachen und Transparenz sicherzustellen.
Vereinfachen Sie die Bereitstellung großer Sprachmodelle (LLMs) und Vision Language Models (VLMs) mit einer Open-Source-Schnittstellen-Engine namens Virtual Large Language Model (vLLM). Stellen Sie ein benutzerdefiniertes Modell bereit oder wählen Sie aus einer Vielzahl offener Modelle auf Hugging Face.
Optimieren Sie das Infrastruktur-Benchmarking für das Finetuning mithilfe der MLCommons-Methodik. Dabei wird ein quantisiertes Llama-2-70B-Modell mit einem standardisierten Datensatz optimiert.
OCI AI Blueprints ermöglichen ein effizientes Modell-Finetuning mit Low-Rank Adaptation (LoRA) – einer besonders ressourcenschonenden Methode zur Feinabstimmung großer Sprachmodelle (LLMs). Optimieren Sie ein eigenes LLM oder verwenden Sie eines der zahlreichen offenen Modelle von Hugging Face.
Vor der Bereitstellung produktiver oder forschungsbezogener Workloads können Sie einen leistungsstarken Precheck-Blueprint nutzen, um den GPU-Zustand umfassend zu validieren und potenzielle Probleme frühzeitig zu erkennen und zu beheben. So stellen Sie sicher, dass Ihre GPU-Infrastruktur optimal für anspruchsvolle Experimente in Einzel- und Mehrknotenumgebungen vorbereitet ist.
Nutzen Sie ein umfassendes Framework zur Bereitstellung von LLMs auf CPUs – basierend auf der Ollama-Plattform mit Unterstützung für verschiedene Modelle wie Mistral, Gemma usw.
Mit diesem Blueprint können Sie Inference-Serving über mehrere Rechenknoten hinweg verteilen, die jeweils in der Regel mit einer oder mehreren GPUs ausgestattet sind. So lassen sich beispielsweise Llama-Modelle in der Größe von 405B auf mehreren H100-Knoten mit RDMA bereitstellen – unter Einsatz von vLLM und LeaderWorkerSet.
Stellen Sie LLMs mit automatischem Scaling über KEDA bereit – flexibel skalierbar über mehrere GPUs und Knoten hinweg auf Basis von Anwendungsmetriken wie der Inferenzlatenz.
Stellen Sie LLMs auf einem Teil einer GPU mit NVIDIA Multi-Instance GPUs (MIG) bereit und bedienen Sie sie effizient über vLLM.
Starten Sie Ihre KI-Anwendung schnell und effizient – mit klar empfohlenen Hardware-Konfigurationen, vorinstallierten Software-Stacks und einsatzbereiten Tools für Observability.
Stellen Sie Ihre GenAI-Workloads mit Vertrauen bereit – mithilfe vorkonfigurierter Blueprints, die auf empfohlenen OCI-GPU-, CPU- und Netzwerkkonfigurationen getestet wurden. So vermeiden Sie zeitaufwendige Performance-Benchmarks und unnötiges Rätselraten.
Profitieren Sie von den passenden Frameworks, Bibliotheken und Modellkonfigurationen für gängige Anwendungsfälle wie RAG, Finetuning und Inferenz – oder passen Sie diese flexibel an Ihre Geschäftsanforderungen an.
Vereinfachen Sie das Infrastrukturmanagement mit automatisierten MLOps-Aufgaben wie Monitoring, Logging und Skalierung. Starten Sie direkt durch mit vorinstallierten Tools wie Prometheus, Grafana, MLflow und KEDA – für eine produktionsreife Umgebung mit minimalem Aufwand.
Lernen Sie OCI AI Blueprints kennen – eine Plattform zur Verwaltung von KI-Workloads in Kubernetes. Sie bietet eine Sammlung von Blueprints, mit denen Sie KI-Workloads in wenigen Minuten produktiv bereitstellen, skalieren und überwachen können.
Vollständigen Beitrag lesenMehr als 20 kostenlose Cloud-Services mit einer 30-tägigen Testversion für noch mehr.
Entdecken Sie OCI AI Blueprints und testen Sie sie – oder setzen Sie sie direkt in Ihrer produktiven Umgebung ein.
Erfahren Sie, wie Oracle Kunden dabei unterstützt, bei Rechenleistung, Speicher und Netzwerk dauerhaft Kosten im Vergleich zu anderen Cloud-Hyperscalern zu sparen.
Möchten Sie mehr über die Oracle Cloud Infrastructure erfahren? Einer unserer Experten wird Ihnen gerne helfen.