Beratung anfragen
Start-up / Packaging Projekt abgeschlossen: November 2024

Von Null auf KI-Ready: Skalierbare Infrastruktur in 8 Wochen

Wie wir einem schnell wachsenden Smart Packaging Start-up geholfen haben, eine zukunftssichere KI-Infrastruktur aufzubauen – bevor das Wachstum sie überrollt.

8 Wo.
Time-to-Value
10x
Skalierbarkeit
-60%
Infrastrukturkosten
99,9%
Uptime

Wachstumsschmerzen in der Datenwolke

Die PackSense Technologies GmbH aus München, ein innovatives Start-up im Bereich Smart Packaging mit 25 Mitarbeitenden, stand vor einer kritischen Hürde. Ihr Kernprodukt – intelligente Sensoren für Lebensmittel-Frische-Monitoring – generierte mit jedem neuen Kunden exponentiell mehr Daten.

Die bestehende Legacy-Infrastruktur auf Basis eines einzelnen Servers war am Limit. Ohne eine automatisierte ML-Pipeline und eine skalierbare Cloud-Architektur verbrachten die Entwickler fast die Hälfte ihrer Zeit mit manuellem Infrastruktur-Management statt mit der Produktentwicklung.

  • Explosives Wachstum: 300% mehr Sensordaten pro Quartal
  • Legacy-Infrastruktur am Limit
  • Keine ML-Pipeline für Frische-Vorhersage-Modelle
  • Hohe Cloud-Kosten durch ineffiziente Architektur
  • Entwickler-Produktivität durch Ops-Aufgaben gehemmt
Moderne Cloud-Architektur und Datenvisualisierung im Start-up Umfeld Skalierbare Plattform für Echtzeit-Sensorik bei PackSense

Cloud-Native Architektur & ML-Ops

NovaVision konzipierte und implementierte innerhalb von nur 8 Wochen eine vollständig automatisierte, Cloud-native Infrastruktur auf AWS. Dabei lag der Fokus auf maximaler Skalierbarkeit und minimalen Betriebskosten durch den Einsatz von Managed Services und Event-driven Architekturen.

Woche 1: Discovery & Architektur-Design

Audit der Bestandssysteme, Definition der Ziel-Architektur (AWS), Security-Konzept

Woche 2-4: Cloud-Infrastruktur & ML-Pipeline

Setup von Kubernetes (EKS), MLflow Integration und automatisierter ML-Workflows

Woche 5-6: Datenmigration & Integration

Migration der Bestandsdaten nach S3, Anbindung der Sensor-Datenströme via Kafka

Woche 7-8: Testing & Wissenstransfer

Lasttests, CI/CD-Finalisierung und Intensiv-Workshops mit dem PackSense-Team

„Wir waren kurz davor, in der eigenen Datenlawine zu ertrinken. NovaVision hat uns nicht nur gerettet, sondern uns eine Infrastruktur gegeben, die mit uns wachsen kann. Jetzt können wir uns wieder auf unser Produkt konzentrieren."

LB

Dr. Lisa Bergmann

CTO & Co-Founder, PackSense Technologies GmbH

Bereit für globales Scaling

Bereits kurz nach dem Projektende zeigten sich massive Verbesserungen in allen relevanten KPIs. Das Start-up kann sich nun voll auf die Weiterentwicklung ihrer KI-Modelle konzentrieren.

  • Infrastruktur verarbeitet 10x mehr Daten ohne Performance-Verlust
  • Cloud-Kosten um 60% gesenkt durch Spot-Instances und Auto-Scaling
  • Automatisierte ML-Modelle: Training startet bei neuen Daten-Batches von selbst
  • Entwickler-Produktivität um 45% gesteigert durch DevOps-Automatisierung
  • Zero Downtime seit Go-Live dank Multi-AZ Architektur
Server-Landschaft und High-Performance Computing Visualisierung Backend-Performance Monitoring und System-Status

Der Tech-Stack

  • Cloud: AWS (EKS, S3, SageMaker, Lambda)
  • Streaming: Apache Kafka auf MSK für Echtzeit-Daten
  • ML-Pipeline: MLflow + Amazon SageMaker
  • IaC: Terraform + Helm für reproduzierbare Umgebungen
  • CI/CD: GitHub Actions
  • Monitoring: Datadog für volle Observability

Projekt-Metriken

Dieses Projekt wurde im Rahmen eines intensiven 8-Wochen-Sprints realisiert. Die Ergebnisse wurden durch das CTO-Office von PackSense bestätigt.

Projektdauer
8 Wochen
High-Speed Implementation
Referenz verfügbar
Auf Anfrage
CTO als Referenzkontakt
Methodik
Agile Sprints
Wöchentliche Iterationen & Demos

Projektteam NovaVision: Dr. Bao Tram Ngo Thi (Technical Lead), Heinrich Sprachmann (Strategieberatung), 1 Cloud Architect, 1 ML Engineer

Ihr nächster Schritt

Wachstum planen, statt darauf zu reagieren?

Lassen Sie uns Ihre Architektur fit für die KI-Skalierung machen. Schnell, sicher und kosteneffizient.