Multi-Model AI Architektur¶
Drei Modelle, acht Agenten, automatische PII-Maskierung vor jedem LLM-Call.
Status: done | Phase: vor-go-live | Aktualisiert: 2026-03-23
Aktueller Stand¶
Xolib setzt bewusst auf einen Multi-Model-Ansatz statt Vendor-Lock-in:
| Modell | Einsatz | Begruendung |
|---|---|---|
| GPT-4o-mini | Standard (Tickets, Klassifikation, Zusammenfassungen) | Bestes Preis-Leistungs-Verhaeltnis |
| Claude Haiku | Rechtstexte (Mietvertraege, Mahnungen, Kuendigungen) | Praezision bei juristischer Sprache |
| Gemini Flash | Klassifikation (Dokumenten-Typ, Ticket-Kategorie) | Schnellste Inferenz |
Sicherheitsschicht¶
Vor jedem LLM-Call wird automatisch PII entfernt (pii-mask.ts). Namen, Adressen, IBANs und Kontaktdaten werden durch Platzhalter ersetzt. Dies erfuellt Art. 5 DSGVO (Datenminimierung) und verhindert, dass Mieterdaten in Trainingsdaten externer Anbieter landen.
Agent-Stack (8 Agenten)¶
Die Agent-Infrastruktur besteht aus AgentConfig, AgentRun, AgentKnowledge, AgentFeedback und AgentOutcome als Prisma-Models. Human-in-the-Loop ist Pflicht fuer alle Aktionen mit rechtlicher oder finanzieller Wirkung (ADR-004, Art. 22 DSGVO).
Budget-System¶
Jeder Mandant hat ein KI-Budget. Vor jedem AI-Call wird geprueft, ob ausreichend Budget vorhanden ist. Dies verhindert unkontrollierte Kosten und ermoeglicht verbrauchsbasierte Abrechnung.
Langfristige Strategie¶
Bei 50.000 Feedback-Eintraegen wird ein erster LoRA Fine-Tune auf einem Open-Source-Modell moeglich. Bei 200.000+ Eintraegen kann ein eigenes Domain-Modell die externen LLMs ersetzen — das senkt die KI-Kosten um 75-90% und erhoeht den Exit-Multiplikator um 30-50%.
Naechste Schritte¶
- Feedback-UI (Thumbs up/down) fuer Phase 2 bauen
- LoRA Fine-Tune Pipeline vorbereiten (ab 50.000 Feedbacks)
- Kosten-Tracking pro Mandant in Dashboard integrieren
Historie¶
| Datum | Aenderung |
|---|---|
| 2026-03-23 | Migriert ins Knowledge System |