Zum Inhalt

KI-Provider einrichten

Kamerplanter unterstützt mehrere KI-Provider, die Sie je nach Hardware, Datenschutzanforderungen und Budget wählen können. Diese Seite erklärt, wie Sie jeden Provider einrichten und in Kamerplanter konfigurieren.


Voraussetzungen

  • Kamerplanter ist installiert und läuft
  • Sie haben Zugriff auf Einstellungen > KI-Provider (Tenant-Admin oder eigene Einstellungen)

Übersicht der Provider

Provider Typ Datenschutz Kosten Empfehlung
Ollama Lokal Keine Datenweitergabe Kostenlos Self-Hosted
llama.cpp HTTP Server Lokal Keine Datenweitergabe Kostenlos Fortgeschrittene
OpenAI API Cloud Übertragung an OpenAI (USA) Pay-per-Token Beste Qualität
Anthropic Claude API Cloud Übertragung an Anthropic (USA) Pay-per-Token Beste Qualität
OpenAI-kompatible APIs Lokal oder Cloud Abhängig Variabel Fortgeschrittene

Empfehlung für den Einstieg

Wenn Sie Kamerplanter selbst hosten: Starten Sie mit Ollama + gemma3:4b. Das Modell läuft auf den meisten Desktop-Rechnern ab 2020 ohne GPU und gibt keine Daten weiter.


Ollama (lokal, empfohlen)

Ollama ist ein Programm, das Sprachmodelle lokal auf Ihrem Rechner oder Server ausführt. Keine Daten verlassen Ihr Netzwerk.

Hardware-Anforderungen

Hardware RAM Empfohlenes Modell Antwortzeit (Tipp-Karten)
Raspberry Pi 5, ältere NUCs 8 GB llama3.2:3b 15–30 Sekunden
Desktop/Laptop ab 2020 16 GB gemma3:4b 10–20 Sekunden
Grafikkarte 6–8 GB VRAM (GTX 1060, RX 580) mistral:7b 2–5 Sekunden
Grafikkarte 12 GB VRAM (RTX 3060) llama3.1:8b 1–3 Sekunden
Grafikkarte 16 GB VRAM und mehr mistral-small:22b 2–5 Sekunden

Warum kleine Modelle gut funktionieren

Kamerplanter sendet einen präzisen Kontext (aktuelle Phase, EC/pH/VPD, Pflegehistorie) direkt ans Modell. Ein 4B-Modell mit konkretem Kontext liefert bessere Pflanzen-Tipps als ein 70B-Modell ohne Kontext.

Ollama installieren

curl -fsSL https://ollama.com/install.sh | sh

Der Ollama-Dienst startet automatisch und ist unter http://localhost:11434 erreichbar.

Laden Sie den Installer von ollama.com/download herunter und öffnen Sie die .dmg-Datei.

Nach der Installation erscheint das Ollama-Symbol in der Menüleiste.

Laden Sie den Installer von ollama.com/download herunter und führen Sie ihn aus.

Ollama läuft als Hintergrunddienst und ist unter http://localhost:11434 erreichbar.

docker run -d --name ollama \
  -p 11434:11434 \
  -v ollama_data:/root/.ollama \
  ollama/ollama

Mit GPU-Unterstützung (NVIDIA):

docker run -d --name ollama \
  --gpus all \
  -p 11434:11434 \
  -v ollama_data:/root/.ollama \
  ollama/ollama

Modell herunterladen

Öffnen Sie ein Terminal und laden Sie das empfohlene Modell herunter:

# Empfehlung für die meisten Nutzer (16 GB RAM)
ollama pull gemma3:4b

# Für Rechner mit wenig RAM (8 GB)
ollama pull llama3.2:3b

# Für GPU-Nutzer mit 8+ GB VRAM
ollama pull mistral:7b

Modell testen

Prüfen Sie, ob Ollama funktioniert:

ollama run gemma3:4b "Welche Temperatur benötigt Basilikum in der Keimungsphase?"

In Kamerplanter konfigurieren

  1. Öffnen Sie Einstellungen > KI-Provider
  2. Klicken Sie auf Provider hinzufügen
  3. Wählen Sie Ollama
  4. Tragen Sie die URL ein: http://localhost:11434 (oder die IP Ihres Servers)
  5. Wählen Sie das Modell aus der Dropdown-Liste (oder tippen Sie gemma3:4b ein)
  6. Klicken Sie auf Speichern und anschließend auf Verbindung testen

Ollama auf einem anderen Rechner

Wenn Ollama auf einem anderen Rechner läuft (z.B. einem NAS), ersetzen Sie localhost durch die IP-Adresse dieses Rechners. Stellen Sie sicher, dass Port 11434 im Netzwerk erreichbar ist.


llama.cpp HTTP Server

llama.cpp ist eine Alternative zu Ollama für fortgeschrittene Nutzer, die GGUF-Modelle direkt aus der Hugging-Face-Community oder eigenen Quellen nutzen möchten.

Server starten

# llama.cpp HTTP Server (nach Kompilierung)
./llama-server \
  --model /pfad/zum/modell.gguf \
  --host 0.0.0.0 \
  --port 8080 \
  --ctx-size 4096

In Kamerplanter konfigurieren

  1. Öffnen Sie Einstellungen > KI-Provider
  2. Klicken Sie auf Provider hinzufügen
  3. Wählen Sie OpenAI-kompatibel (llama.cpp bietet eine OpenAI-kompatible API)
  4. Tragen Sie die URL ein: http://localhost:8080
  5. Lassen Sie das API-Key-Feld leer
  6. Tragen Sie als Modellname local oder den Namen Ihres GGUF-Modells ein
  7. Klicken Sie auf Verbindung testen

OpenAI API

OpenAI bietet hochwertige Cloud-Modelle. Ihre Pflanzdaten werden für jede Anfrage an OpenAI-Server in den USA übertragen.

Datenschutzhinweis

Bei Nutzung der OpenAI API werden Ihre Pflanzdaten (Phase, Messwerte, Sortenname, Düngehistorie) an OpenAI in den USA übertragen. Beim ersten Chat mit einem Cloud-Provider fragt Kamerplanter nach Ihrer DSGVO-Einwilligung. Sie können diese jederzeit unter Einstellungen > Datenschutz widerrufen.

API-Key erstellen

  1. Öffnen Sie platform.openai.com
  2. Melden Sie sich an (oder registrieren Sie sich)
  3. Navigieren Sie zu API keys
  4. Klicken Sie auf Create new secret key
  5. Kopieren Sie den Key (er wird nur einmal angezeigt)

In Kamerplanter konfigurieren

  1. Öffnen Sie Einstellungen > KI-Provider
  2. Klicken Sie auf Provider hinzufügen
  3. Wählen Sie OpenAI
  4. Fügen Sie Ihren API-Key ein
  5. Wählen Sie das Modell:
  6. gpt-4o-mini — günstig, schnell, gut für Tipp-Karten
  7. gpt-4o — beste Qualität, höhere Kosten
  8. Klicken Sie auf Speichern

Empfohlene Modelle

Modell Stärken Kosten (ca.)
gpt-4o-mini Schnell, günstig, gut für einfache Diagnosen ~$0,001 pro Anfrage
gpt-4o Beste Qualität, komplexe Zusammenhänge ~$0,01 pro Anfrage

Anthropic Claude API

Anthropic Claude ist eine Alternative zu OpenAI mit starken Analysefähigkeiten. Auch hier werden Daten an Server in den USA übertragen.

Datenschutzhinweis

Analog zur OpenAI API: Ihre Pflanzdaten werden bei jeder Anfrage an Anthropic-Server in den USA übertragen. DSGVO-Einwilligung erforderlich.

API-Key erstellen

  1. Öffnen Sie console.anthropic.com
  2. Melden Sie sich an (oder registrieren Sie sich)
  3. Navigieren Sie zu API Keys
  4. Klicken Sie auf Create Key
  5. Kopieren Sie den Key

In Kamerplanter konfigurieren

  1. Öffnen Sie Einstellungen > KI-Provider
  2. Klicken Sie auf Provider hinzufügen
  3. Wählen Sie Anthropic
  4. Fügen Sie Ihren API-Key ein
  5. Wählen Sie das Modell:
  6. claude-haiku-4-5 — schnell, günstig, gut für Tipp-Karten
  7. claude-sonnet-4-6 — sehr gute Analysequalität
  8. Klicken Sie auf Speichern

Empfohlene Modelle

Modell Stärken Kosten (ca.)
claude-haiku-4-5 Sehr schnell, günstig ~$0,001 pro Anfrage
claude-sonnet-4-6 Präzise Diagnosen, nuancierte Antworten ~$0,008 pro Anfrage

OpenAI-kompatible APIs

Viele lokale und Cloud-Dienste bieten eine OpenAI-kompatible API. Dazu gehören:

  • LM Studio — GUI-Anwendung für lokale Modelle (Windows/macOS/Linux)
  • vLLM — Hochperformante Inference für Server
  • Together AI — Cloud-Dienst mit Open-Source-Modellen
  • Mistral AI — Cloud-Dienst mit Mistral-Modellen
  • Groq — Sehr schnelle Cloud-Inference

In Kamerplanter konfigurieren

  1. Öffnen Sie Einstellungen > KI-Provider
  2. Klicken Sie auf Provider hinzufügen
  3. Wählen Sie OpenAI-kompatibel
  4. Tragen Sie die Base-URL des Dienstes ein (z.B. http://localhost:1234/v1 für LM Studio)
  5. Tragen Sie einen API-Key ein, falls der Dienst einen erfordert (bei lokalen Diensten oft leer lassen)
  6. Tragen Sie den Modellnamen ein
  7. Klicken Sie auf Verbindung testen

LM Studio Beispiel

LM Studio startet einen lokalen Server unter http://localhost:1234/v1. Modellname: Der Name des geladenen Modells, z.B. lmstudio-community/gemma-3-4b-it-GGUF.


Provider-Priorität und Fallback

Wenn Sie mehrere Provider konfiguriert haben, können Sie einen als Standard festlegen. Bei nicht erreichbarem Standard-Provider wechselt das System auf den nächsten aktiven Provider.

Falls kein Provider verfügbar ist, greift der regelbasierte Fallback: Das System generiert Tipp-Karten auf Basis der Stammdaten und der aktuellen Phase — ohne Sprachmodell.


Häufige Fragen

Kann ich verschiedene Provider für verschiedene Funktionen verwenden?

Derzeit verwendet Kamerplanter immer den konfigurierten Standard-Provider für alle KI-Funktionen. Unterschiedliche Provider pro Funktion (z.B. lokal für Chat, Cloud für Diagnose) sind für eine zukünftige Version geplant.

Wie kann ich den Verbrauch bei Cloud-Providern kontrollieren?

OpenAI und Anthropic bieten in ihren Dashboards Verbrauchsübersichten und Budget-Limits. Tipp-Karten werden täglich im Hintergrund generiert und gecacht (4 Stunden), was den Verbrauch stark reduziert.

Ollama startet nicht oder ist nicht erreichbar — was tun?

Prüfen Sie: (1) Ist der Ollama-Dienst gestartet? (systemctl status ollama auf Linux). (2) Läuft Ollama auf Port 11434? (curl http://localhost:11434). (3) Ist das Modell heruntergeladen? (ollama list).

Das Modell antwortet auf Englisch statt Deutsch — was tun?

Das Systemverhalten hängt vom Modell ab. Kamerplanter sendet alle Anfragen auf Deutsch und weist das Modell an, auf Deutsch zu antworten. Falls das Modell trotzdem auf Englisch antwortet, versuchen Sie ein größeres Modell (gemma3:4b statt llama3.2:3b).


Siehe auch