Post 1: Warum Self-Hosting? Der Business Case für Datensouveränität

Serie: Self-Hosted LLMs für Datensouveränität | Code: GitHub TL;DR – Für eilige Leser Das Problem: Unternehmen wollen generative KI nutzen, aber sensible Daten dürfen nicht an externe APIs. Die Lösung: Self-Hosted LLMs bieten volle Kontrolle über Daten und Modellverhalten. Diese Tutorial-Serie zeigt: ✅ Von “erstes LLM deployen” bis “vollständige Datensouveränität” ✅ Echte Debugging-Stories statt “happy path” ✅ Production-Grade Stack: Kubernetes, vLLM, MLflow, Prometheus ✅ Schrittweiser Aufbau – nach Post 2 läuft dein erstes selbst gehostetes LLM Für wen? ML Engineers, Data Scientists, Tech Leads und technische Entscheider im DACH-Raum. ...

January 7, 2025 · 7 min

Post 7: Dataset-Generierung selbst gehostet – Der ehrliche Vergleich

Serie: Self-Hosted LLMs für Datensouveränität | Code: GitHub Hinweis: Alle Zahlen sind gemessen, nicht geschätzt. Unternehmen stehen vor einem Dilemma: Sie wollen, dass ihre Entwickler und Data Scientists Generative KI nutzen - für schnellere Entwicklung, bessere Lösungen, synthetische Trainingsdaten. Aber niemand will Firmendaten, interne Dokumentation oder Intellectual Property an OpenAI, Anthropic oder andere externe Provider schicken. Besonders kritisch: Dataset Generation. Entwickler brauchen synthetische QA-Pairs für Instruction Tuning, realistische Test-Daten für Evaluation, augmentierte Daten für Training. Genau die Art von Daten, die man NICHT extern generieren lassen möchte. ...

March 11, 2025 · 15 min

Post 8: LLM-as-Judge Self-Hosted – Empirische Evaluation der Grenzen und Möglichkeiten

Serie: Self-Hosted LLMs für Datensouveränität | Code: GitHub Hinweis: Detaillierte Definitionen zu technischen Begriffen findest du im Glossar. TL;DR – Für eilige Leser Setup: Llama-3.1-8B (self-hosted) vs. Claude Sonnet 4.5 (commercial), 171 identische Samples, gleicher Judge-Prompt Ergebnisse: Judge A-Ratings B-Ratings C-Ratings Agreement Kappa Claude Sonnet 4.5 111 (64.9%) 50 (29.2%) 10 (5.8%) - - Llama-3.1-8B 167 (97.7%) 3 (1.8%) 1 (0.6%) 65% 0.30 Kernerkenntnisse: Data Sovereignty machbar: Komplette Pipeline self-hosted 8B Models zu optimistisch: Übersehen 90% der B-Ratings, 90% der C-Ratings Use-Case abhängig: Pre-Filtering OK, Final Quality Control nicht Empirisch validiert: 171 Samples zeigen wahre Performance (für unseren Use Case) Framework ready: Llama-70B Test in Post 8.1 möglich Kein Drop-in Replacement für Claude – aber wir wissen jetzt, wo die Grenzen liegen und für welche Use Cases ein 8B Judge trotzdem nützlich ist. ...

April 1, 2025 · 13 min

Post 10: Resümee – Was wir über Self-Hosted LLMs gelernt haben

Serie: Self-Hosted LLMs für Datensouveränität | Code: GitHub Dies ist der letzte Post dieser Serie. Kein neues Feature, kein neues Deployment – stattdessen ein Schritt zurück. Was haben wir in 9 Posts und mehreren Monaten über Self-Hosted LLMs gelernt? Was würden wir heute anders machen? Und was bedeutet das für Unternehmen, die diesen Weg evaluieren? Was wir gebaut haben In dieser Serie haben wir eine vollständige LLM-Infrastruktur aufgebaut – Schritt für Schritt, mit echten Problemen und echten Lösungen. ...

April 22, 2025 · 5 min

MLflow as the Control Plane for MLOps — Beyond Experiment Tracking

Most MLflow setups use about 20% of what the platform offers. Teams log metrics, compare a few training runs, maybe register a model. That’s useful for notebooks and early experimentation — but it doesn’t get you to production. The gap between “we track experiments” and “we have a production ML pipeline” is filled with questions that experiment tracking alone can’t answer: Which model is live right now? What data trained it? Why was the previous version replaced? Can we roll back in under a minute? ...

February 15, 2026 · 6 min

Warum gutes MLOps-Setup den Unterschied macht – besonders beim Self-Hosting

Die Entscheidung für Self-Hosting ist gefallen. Das Unternehmen betreibt ML-Modelle auf eigener Infrastruktur – aus regulatorischen Gründen, zum Schutz von Betriebsgeheimnissen oder weil das Anfragevolumen eine eigene Infrastruktur wirtschaftlich macht. Damit beginnt die eigentliche Arbeit. Denn wer Modelle selbst betreibt, übernimmt die Verantwortung für alles, was Cloud-Anbieter sonst im Hintergrund erledigen: Training, Deployment, Versionierung, Qualitätssicherung, Rollback. Die Frage ist nicht mehr ob man MLOps braucht, sondern wie gut das Setup sein muss, damit Self-Hosting in der Praxis funktioniert. ...

February 1, 2026 · 5 min