Zum Inhalt

Multi-Model AI Architektur

Drei Modelle, acht Agenten, automatische PII-Maskierung vor jedem LLM-Call.

Status: done | Phase: vor-go-live | Aktualisiert: 2026-03-23

Aktueller Stand

Xolib setzt bewusst auf einen Multi-Model-Ansatz statt Vendor-Lock-in:

Modell Einsatz Begruendung
GPT-4o-mini Standard (Tickets, Klassifikation, Zusammenfassungen) Bestes Preis-Leistungs-Verhaeltnis
Claude Haiku Rechtstexte (Mietvertraege, Mahnungen, Kuendigungen) Praezision bei juristischer Sprache
Gemini Flash Klassifikation (Dokumenten-Typ, Ticket-Kategorie) Schnellste Inferenz

Sicherheitsschicht

Vor jedem LLM-Call wird automatisch PII entfernt (pii-mask.ts). Namen, Adressen, IBANs und Kontaktdaten werden durch Platzhalter ersetzt. Dies erfuellt Art. 5 DSGVO (Datenminimierung) und verhindert, dass Mieterdaten in Trainingsdaten externer Anbieter landen.

Agent-Stack (8 Agenten)

Die Agent-Infrastruktur besteht aus AgentConfig, AgentRun, AgentKnowledge, AgentFeedback und AgentOutcome als Prisma-Models. Human-in-the-Loop ist Pflicht fuer alle Aktionen mit rechtlicher oder finanzieller Wirkung (ADR-004, Art. 22 DSGVO).

Budget-System

Jeder Mandant hat ein KI-Budget. Vor jedem AI-Call wird geprueft, ob ausreichend Budget vorhanden ist. Dies verhindert unkontrollierte Kosten und ermoeglicht verbrauchsbasierte Abrechnung.

Langfristige Strategie

Bei 50.000 Feedback-Eintraegen wird ein erster LoRA Fine-Tune auf einem Open-Source-Modell moeglich. Bei 200.000+ Eintraegen kann ein eigenes Domain-Modell die externen LLMs ersetzen — das senkt die KI-Kosten um 75-90% und erhoeht den Exit-Multiplikator um 30-50%.

Naechste Schritte

  • Feedback-UI (Thumbs up/down) fuer Phase 2 bauen
  • LoRA Fine-Tune Pipeline vorbereiten (ab 50.000 Feedbacks)
  • Kosten-Tracking pro Mandant in Dashboard integrieren

Historie

Datum Aenderung
2026-03-23 Migriert ins Knowledge System

Quelldateien

Abhaengigkeiten

Referenziert in