
Valohai
Cloud-agnostische MLOps-Plattform zur Automatisierung von Machine-Learning-Pipelines vom Experiment bis zum Deployment.
📍 Finnland 🇫🇮, Helsinki
Produktübersicht
Valohai automatisiert den gesamten Machine-Learning-Lebenszyklus, vom Experiment-Tracking bis zum Modell-Deployment, auf beliebiger Cloud- oder On-Premise-Infrastruktur. Die Plattform führt ML-Workloads in Docker-Containern aus und ist damit framework- und sprachunabhängig. Jeder Lauf, jedes Modell, jeder Datensatz und jede Metrik wird automatisch versioniert, sodass ein vollständiger Audit Trail ohne manuellen Aufwand entsteht. Die Plattform orchestriert GPU-beschleunigtes Training, verwaltet Experiment-Warteschlangen mit Auto-Scaling und unterstützt sowohl Batch- als auch Echtzeit-Inferenz. Teams arbeiten über ein gemeinsames Knowledge Repository zusammen, in dem Experimente und Ergebnisse automatisch dokumentiert werden. Die Architektur von Valohai ermöglicht es Organisationen, eigene Rechenressourcen von AWS, GCP, Azure, OVHcloud oder privaten Rechenzentren einzubringen. Eine Partnerschaft mit OVHcloud bietet europäischen Organisationen eine souveräne Cloud-Option für ML-Workloads, während On-Premise- und Air-Gapped-Deployments Branchen mit strengen Datenresidenz-Anforderungen bedienen. Valohai hat Templates für das Finetuning von Mistral-Modellen auf der Plattform veröffentlicht. Gegründet 2016 in Finnland, bedient Valohai Kunden in den Bereichen Gesundheitswesen (Boston Scientific), Geospatial Intelligence (Preligens), Automobil (Continental) und Landwirtschaft (Syngenta). Das Unternehmen kooperiert mit Oracle Cloud, wodurch die Plattform im Oracle Cloud Marketplace verfügbar ist. Eine 14-tägige kostenlose Testversion bietet vollen Plattformzugang mit kostenlosen Cloud-Ressourcen. WICHTIGSTE MERKMALE: - Automatische Versionierung aller Experimente, Modelle, Datensätze und Metriken - GPU-beschleunigtes Training mit Auto-Scaling-Compute-Warteschlangen - Framework- und sprachunabhängige Ausführung über Docker-Container - OVHcloud-Partnerschaft für souveräne europäische ML-Workloads - On-Premise- und Air-Gapped-Umgebungsunterstützung