Sovereign  ·  Local-first  ·  Open Source

Lokale Infrastruktur,
souveräne KI

Ihre IT in Ihren Händen

Dezentrales Hosting, lokale KI-Ökosysteme und maßgeschneiderte Software – entwickelt und betrieben ohne Cloud-Abhängigkeiten, ohne fremde Augen, ohne Vendor Lock-in. Made in Münster.

15
Experten-Modelle
MoE Sovereign
75%
API-Kosten
eingespart
100%
Daten
lokal
Apache 2.0
Open Source
Lizenz

Was wir für Sie bauen

Vier aktive Schwerpunkte – konsequent local-first und souverän.

Dezentrales & lokales Hosting

Serverinfrastruktur auf Ihrer eigenen Hardware oder in privaten Rechenzentren – keine Public-Cloud-Abhängigkeit, keine versteckten Gebühren, vollständige Kontrolle über Standort, Zugriffsrechte und Datenpfade. Skalierbar von der Single-Node-VM bis zum Cluster.

ProxmoxOn-Premise ISPConfigVPN / WireGuard Bare-Metal

Lokale KI-Infrastruktur & KI-Ökosysteme

Vollständige KI-Stacks auf Ihrer eigenen Hardware – von der Inferenz-Engine bis zum Multi-Model-Orchestrator mit Knowledge Graph, privatem Web-Search und Workflow-Automatisierung. DSGVO-konform, kein Token verlässt Ihr Netz. Unser Open-Source-Projekt MoE Sovereign ist das Herzstück.

MoE Sovereign Ollama LangGraph GraphRAG n8n SearXNG

Software-Entwicklung

KI-unterstützte Entwicklung mit klassischen Wurzeln: solide Backend-Kompetenz in PHP und Python, ergänzt durch moderne KI-Werkzeuge für schnellere Umsetzung und höhere Codequalität. Kein Hype ohne Substanz – bewährte Architekturmuster und wartbarer Code als Fundament.

PythonPHP FastAPILaravel MySQL / MariaDB KI-unterstützt

Individuallösungen

Wenn Standardsoftware nicht passt: Wir entwerfen und implementieren maßgeschneiderte Systeme, die sich exakt in Ihre Prozesse einfügen – von der API-Integration über automatisierte Datenpipelines bis zu komplexen Workflow-Lösungen mit KI-Anbindung.

API-Integration Automatisierung Datenpipelines Systemintegration

eCommerce

Nur Bestandskunden

Betreuung bestehender JTL-Shop- und Shopware-Installationen sowie JTL-Wawi-Anbindungen für langjährige Kunden. Neue eCommerce-Projekte nehmen wir aktuell nicht an – unser Fokus liegt auf souveräner Infrastruktur und KI-Ökosystemen.

JTL Shop Shopware JTL-Wawi

KI, die Ihnen gehört

Echte Datensouveränität erfordert mehr als das Hosten eines einzelnen Modells. Wir bauen vollständige KI-Ökosysteme – von der Inferenz-Engine über Knowledge Graphs und private Suche bis zum vollautomatischen Multi-Model-Orchestrator.

Ollama

Lokale LLM-Inferenz für Llama, Mistral, Qwen, Gemma u.v.m. – vollständig offline, kein Token-Limit, GPU-beschleunigt oder rein CPU-basiert.

Open-WebUI

ChatGPT-artiges Interface für Ihr lokales KI-System – Ihr Team nutzt die Modelle direkt im Browser, ohne technisches Vorwissen.

SearXNG

Selbst gehostete Meta-Suchmaschine ohne Tracking – die KI recherchiert das Web, ohne Ihre Anfragen an Google oder Bing weiterzugeben.

AnythingLLM

Firmenwissen als KI-Kontext: Dokumente, Handbücher, Datenbanken werden semantisch durchsuchbar – vertraulich auf Ihrem Server.

n8n

Lokale Workflow-Automatisierung, die KI-Modelle mit Ihren bestehenden Systemen verbindet: ERP, CRM, APIs, Datenbanken – vollständig on-premise.

ComfyUI

Generative Bild- und Medienerstellung mit Stable Diffusion auf Ihrer GPU – kein Upload, keine Nutzungsrechte-Probleme, vollständig lokal.

Meilisearch

Hochperformante Volltext- und Semantik-Suche für interne Dokumente – blitzschnell, DSGVO-konform, lokal deploybar.

MoE Sovereign

Unser Open-Source-Projekt: Multi-Model-Orchestrator mit 15 Experten-Domänen, Neo4j Knowledge Graph, GraphRAG und OpenAI-kompatiblem API. → Details

Open-Source-Projekt

MoE Sovereign
der selbst gehostete
Multi-Model-Orchestrator

Ein produktionsreifes KI-System, das wir von Grund auf entwickelt haben: Anfragen werden automatisch an 15 spezialisierte Experten-Modelle geroutet, mit Knowledge-Graph-Kontext angereichert und durch ein Judge-Modell synthetisiert – alles auf Ihrer Hardware, OpenAI-API-kompatibel.

  • Intelligentes Multi-Model-Routing: LangGraph-Pipelines leiten jede Anfrage heuristisch zum passenden Spezialisten – Mathematik, Code-Review, Recht, Medizin, Kreatives u.v.m.
  • GraphRAG mit Neo4j: Strukturiertes Wissen im Knowledge Graph ermöglicht semantisches Reasoning über Ihre Dokumente und Unternehmensdaten.
  • 27 MCP Precision Tools: Deterministische Werkzeuge mit AST-Whitelist-Sicherheit für Berechnungen, Dateioperationen und externe Dienste.
  • OpenAI-API-kompatibel: Drop-in-Ersatz – funktioniert mit Claude Code, Continue.dev und jedem OpenAI-SDK ohne Code-Änderungen.
  • MoE Libris – Federated Knowledge: Dezentrales Wissens-Netzwerk zwischen souveränen Instanzen mit bilateral vereinbartem Datenaustausch.
Apache 2.0 Open Source
15
Spezialisierte Experten-Domänen
75%
API-Kosteneinsparung vs. reiner Cloud
60%
GAIA L1 Score (Benchmark)
27
MCP Precision Tools (deterministisch)
# MoE Sovereign — Architektur

request ──► Complexity Classifier
          ↓ trivial / moderate / complex
Expert Router ──► 15 Spezialisten-Modelle
            ↳ math · code · legal · medical ···

GraphRAG ──► Neo4j Knowledge Graph
Web Search ──► SearXNG (privat, lokal)
Cache ──► ChromaDB + Redis + Neo4j

Judge Model ──► Synthese & Qualitätsprüfung
MoE Libris ──► Federated Knowledge Exchange

API: OpenAI-kompatibel (v1/chat/completions)
Deploy: Docker / K3s / Solo-VM

Bewährte Tools, keine Experimente

Open-Source-Software, die wir im Produktivbetrieb täglich einsetzen und kennen.

LangGraph
Ollama
Neo4j
ChromaDB
Linux
Docker
Python
Kubernetes
Proxmox
GitLab
Ansible
Grafana
Prometheus
Nextcloud
PHP
MariaDB
Wazuh
Matomo
n8n
ISPConfig

Local-first.
Open Source.
Keine Kompromisse.

MoE Sovereign ist der lebende Beweis: Man braucht keine Cloud-Riesen für leistungsstarke KI. Diese Überzeugung prägt jedes Projekt, das wir für unsere Kunden umsetzen.

  • Datensouveränität – Ihre Daten verlassen nie Ihre Infrastruktur. DSGVO ist Architektur, kein Aufkleber.
  • Keine Abhängigkeiten – kein Vendor Lock-in bei Modellen, Hosting oder Tooling. Wechsel bleiben möglich.
  • Open Source als Standard – transparenter Quellcode, aktive Communities, keine Black-Box-Systeme.
  • Kalkulierbare Kosten – Infrastruktur, die man einmal aufbaut und betreibt, ohne monatliche Per-Token-Überraschungen.
  • Klassische Kompetenz als Anker – fundierte Backend-Kenntnisse und jahrelange Infrastruktur-Erfahrung als Basis für jeden KI-Stack.
MoE Sovereign
Linux
Docker
Neo4j
Ollama
GitLab
SearXNG
Nextcloud
Grafana

Die Basis, die KI-Workloads trägt

Souveräne KI braucht souveräne Infrastruktur – wir entwerfen und betreiben beides.

Infrastructure as Code

Reproducible Deployments mit Ansible und Salt – von der GPU-Node bis zum KI-Orchestrator. Kein manuelles Setup, keine Konfigurationsdrift.

Virtualisierung & Container

Proxmox für skalierbare Server-Umgebungen, Docker und Kubernetes für Services – inklusive GPU-Passthrough und VRAM-Management für KI-Workloads.

CI/CD-Pipelines

Automatisierte Build-, Test- und Deploy-Pipelines mit GitLab CI – auch für ML-Pipelines und Modell-Updates im KI-Stack.

Monitoring & Security

Prometheus + Grafana für Token-Consumption, Cache-Hit-Rates und GPU-Auslastung. Wazuh + ELK für Security-Monitoring – vollständig lokal.

Bereit für souveräne IT?

MoE Sovereign deployen, KI-Stack aufbauen oder Infrastruktur migrieren – Wir melden uns schnell und unkompliziert.

Philipp Horn

Horn Consulting UG – IT-Beratung, Sovereign AI & Open-Source-Infrastruktur aus Münster.

E-Mailinfo@horn-consulting.de
Telefon+49 251 59083167
AdresseDortmunder Straße 25, 48155 Münster
Open-Source-Projektmoe-sovereign.org

Mit dem Absenden stimmen Sie der Verarbeitung Ihrer Daten gemäß unserer Datenschutzerklärung zu.