Zum Inhalt

Kubernetes-Deployment

Kamerplanter wird über ein einzelnes Helm-Chart deployt, das alle Komponenten enthält: Backend, Frontend, ArangoDB und Valkey. Die Container-Images und das Helm-Chart liegen in der GitHub Container Registry (ghcr.io).


Voraussetzungen

Was Minimum
Kubernetes-Cluster Version 1.28+
Helm Version 3.12+
kubectl Konfiguriert und verbunden mit dem Cluster
Ingress-Controller Traefik, nginx-ingress oder vergleichbar
Speicher StorageClass mit ReadWriteOnce-Unterstützung (für ArangoDB + Valkey)

Überblick: Was wird deployt?

graph TB
    subgraph "Kubernetes Cluster"
        direction TB
        ING["Ingress\n(Traefik / nginx)"]

        subgraph "Kamerplanter Namespace"
            FE["Frontend\n(Deployment, 2 Replicas)"]
            BE["Backend\n(Deployment, 2 Replicas)"]
            DB["ArangoDB\n(StatefulSet, 1 Replica)"]
            VK["Valkey\n(StatefulSet, 1 Replica)"]
        end
    end

    ING -->|"/api/*"| BE
    ING -->|"/"| FE
    BE --> DB
    BE --> VK
    FE -->|"proxy /api"| BE

    style ING fill:#FF9800,color:#fff
    style FE fill:#66BB6A,color:#fff
    style BE fill:#43A047,color:#fff
    style DB fill:#2E7D32,color:#fff
    style VK fill:#1B5E20,color:#fff
Komponente Typ Replicas Beschreibung
Backend Deployment 2 FastAPI-Anwendung (API + Celery Worker)
Frontend Deployment 2 React-App hinter nginx, Proxy für /api zum Backend
ArangoDB StatefulSet 1 Dokumenten-/Graph-Datenbank mit Persistent Volume (5 Gi)
Valkey StatefulSet 1 Redis-kompatibler Cache + Celery-Broker (1 Gi)

Installation

1. Helm-Repository hinzufügen

Das Kamerplanter Helm-Chart liegt als OCI-Artefakt in der GitHub Container Registry:

# OCI-Registries benötigen kein helm repo add —
# der Pull erfolgt direkt über die OCI-URL
helm pull oci://ghcr.io/nolte/kamerplanter-helm/kamerplanter --version 0.2.0
Authentifizierung an der GitHub Registry

Falls die Registry privat ist, musst du dich vorher anmelden:

echo $GITHUB_TOKEN | helm registry login ghcr.io --username $GITHUB_USER --password-stdin

2. Values-Datei erstellen

Erstelle eine values-production.yaml mit deinen Anpassungen:

values-production.yaml
controllers:
  backend:
    replicas: 2     # (1)!
    containers:
      main:
        env:
          ARANGODB_HOST: kamerplanter-arangodb
          ARANGODB_PORT: "8529"
          ARANGODB_DATABASE: kamerplanter
          ARANGODB_USERNAME: root
          ARANGODB_PASSWORD: "dein-sicheres-passwort"   # (2)!
          REDIS_URL: redis://kamerplanter-valkey:6379/0
          CORS_ORIGINS: '["https://pflanzen.example.com"]'
          DEBUG: "false"
          KAMERPLANTER_MODE: light    # (3)!

  frontend:
    replicas: 2

  arangodb:
    containers:
      main:
        env:
          ARANGO_ROOT_PASSWORD: "dein-sicheres-passwort"  # (4)!
    statefulset:
      volumeClaimTemplates:
        - name: data
          accessMode: ReadWriteOnce
          size: 10Gi    # (5)!
          globalMounts:
            - path: /var/lib/arangodb3

ingress:
  main:
    enabled: true
    hosts:
      - host: pflanzen.example.com    # (6)!
        paths:
          - path: /api
            pathType: Prefix
            service:
              identifier: backend
          - path: /
            pathType: Prefix
            service:
              identifier: frontend
  1. Zwei Replicas für Rolling Updates ohne Downtime.
  2. Verwende ein sicheres Passwort. In Produktion: besser über ein Kubernetes Secret referenzieren.
  3. light = ohne Login/Tenant-System. Für Multi-User-Betrieb auf standard setzen.
  4. Muss identisch mit ARANGODB_PASSWORD sein.
  5. Passe die Größe an deinen Bedarf an. 5 Gi reichen für die meisten Heimanwender.
  6. Dein gewünschter Hostname. Der Ingress-Controller muss darauf konfiguriert sein.

Passwörter in Values-Dateien

Für den produktiven Einsatz solltest du Passwörter nicht in der Values-Datei im Klartext speichern. Verwende stattdessen Kubernetes Secrets und referenziere sie über envFrom oder ein Secret-Management-Tool wie Sealed Secrets oder External Secrets Operator.

3. Helm-Chart installieren

helm install kamerplanter \
  oci://ghcr.io/nolte/kamerplanter-helm/kamerplanter \
  --version 0.2.0 \
  --namespace kamerplanter \
  --create-namespace \
  --values values-production.yaml

4. Deployment prüfen

# Pod-Status prüfen
kubectl get pods -n kamerplanter

# Auf gesunde Pods warten
kubectl wait --for=condition=ready pod \
  --all -n kamerplanter --timeout=120s

Erwartete Ausgabe:

NAME                                      READY   STATUS    RESTARTS   AGE
kamerplanter-backend-7d8f9b6c4d-abc12     1/1     Running   0          45s
kamerplanter-backend-7d8f9b6c4d-def34     1/1     Running   0          45s
kamerplanter-frontend-5c4d8e7f3b-ghi56    1/1     Running   0          45s
kamerplanter-frontend-5c4d8e7f3b-jkl78    1/1     Running   0          45s
kamerplanter-arangodb-0                   1/1     Running   0          45s
kamerplanter-valkey-0                     1/1     Running   0          45s

Updates durchführen

# Auf neue Version aktualisieren
helm upgrade kamerplanter \
  oci://ghcr.io/nolte/kamerplanter-helm/kamerplanter \
  --version 0.3.0 \
  --namespace kamerplanter \
  --values values-production.yaml

Die Backend- und Frontend-Deployments führen ein Rolling Update durch — es gibt keine Downtime, da die alten Pods erst beendet werden, wenn die neuen bereit sind.


Deinstallation

helm uninstall kamerplanter --namespace kamerplanter

Persistent Volumes

helm uninstall entfernt die Deployments und Services, aber nicht die Persistent Volume Claims (PVCs) von ArangoDB und Valkey. Deine Daten bleiben erhalten. Um auch die Daten zu löschen:

kubectl delete pvc --all -n kamerplanter

Monitoring

Logs prüfen

# Backend-Logs
kubectl logs -l app.kubernetes.io/component=backend -n kamerplanter --tail=50

# Frontend-Logs
kubectl logs -l app.kubernetes.io/component=frontend -n kamerplanter --tail=50

# ArangoDB-Logs
kubectl logs -l app.kubernetes.io/component=arangodb -n kamerplanter --tail=50

Health-Checks

Das Backend bietet zwei Health-Endpunkte:

Endpunkt Prüft Verwendung
/api/v1/health/live Backend-Prozess läuft Kubernetes Liveness-Probe
/api/v1/health/ready Backend + Datenbank erreichbar Kubernetes Readiness-Probe
# Manuell testen (über Port-Forward)
kubectl port-forward svc/kamerplanter-backend 8000:8000 -n kamerplanter
curl http://localhost:8000/api/v1/health/ready

Fehlerbehebung

Pods bleiben im Status 'Pending'

Der Cluster hat nicht genügend Ressourcen. Prüfe die verfügbare Kapazität mit kubectl describe nodes und vergleiche mit den Resource Requests in der Values-Datei. Für kleinere Cluster kannst du die Requests reduzieren.

ArangoDB startet nicht (CrashLoopBackOff)

Häufigste Ursache: Zu wenig Speicher. ArangoDB braucht mindestens 512 Mi. Prüfe die Logs: kubectl logs kamerplanter-arangodb-0 -n kamerplanter.

Frontend zeigt 502 Bad Gateway

Das Backend ist noch nicht bereit. Warte, bis die Readiness-Probe des Backends erfolgreich ist: kubectl get pods -n kamerplanter -w. Falls der Fehler bleibt: Stimmen die Service-Namen in der nginx-Konfiguration?

Ingress funktioniert, aber die Seite lädt nicht

Prüfe: (1) Ist ein Ingress-Controller installiert? (2) Zeigt der DNS-Eintrag auf den Cluster? (3) Stimmt der Hostname in der Values-Datei mit dem DNS überein?


Siehe auch

  • Helm Charts — Detaillierte Beschreibung der Chart-Struktur und aller Konfigurationsoptionen
  • Schnellstart — Einfachere Alternative mit Docker Compose
  • Erstes Deployment — Docker-Compose-basierter Dauerbetrieb