Wenn Teams Antworten brauchen, will ich sie direkt im Arbeitsfluss bekommen, damit Projekte schneller vorankommen und Entscheidungen belastbarer werden. - CIO eines mittelständischen Anlagenbauers in Süddeutschland
Wissen liegt heute in Tickets, Wikis, Mails, Dateien und vor allem in Köpfen. Es ist verstreut, schwer zu pflegen und im Alltag kaum auffindbar. LLM Agenten schaffen Ordnung, indem sie Inhalte verstehen, verknüpfen und als präzise Antworten mit Quellen ausspielen. Direkt in den Tools, in denen gearbeitet wird. RBAC sorgt dafür, dass nur sichtbare Inhalte genutzt werden, Audit und Guardrails sichern Qualität und Governance.
Ein unternehmensweiter Frag dein Wissen Layer über Confluence, SharePoint, Google Drive, Git und Ticketing.
Quellenzitate zur Nachvollziehbarkeit
Zugriffsrechte werden respektiert
DSGVO konforme Verarbeitung Ergebnis: weniger Suchen, weniger Doppelarbeit, schnellere und bessere Entscheidungen.
SOPs, Protokolle und Best Practices werden zu prägnanten Antworten, Checklisten und Entscheidungsbäumen verdichtet. Neue Kolleginnen und Kollegen erhalten kontextbezogene Unterstützung im Chat oder direkt im Portal.
Aus Doku und Meeting Notizen entstehen automatisch Lernskripte, Quizzes und kurze Lernvideos, passgenau für Rollen und Aufgaben. Aus vorhandenem Wissen wird Training, ohne zusätzlichen Produktionsaufwand.
Klare Datenhaltung mit Metadaten und Löschkonzept
Rollen, Rechte und Genehmigungswege
Sauberes Embedding und Vektor Setup
Qualitative Prompts, Policies und Guardrails
Monitoring mit Feedbackschleifen und Retrain Pfad
Experience Layer: Liferay DXP als zentrales Mitarbeiter und Partner Portal mit Suchfeld, Widgets, Antworten im Kontext und Low Code Fähigkeiten
Quellen: Confluence, SharePoint, Fileshares, Ticketing, Git, ERP, CRM etc.
Vektor Datenbank: Elasticsearch mit Vektor Feldern oder pgvector
Agenten Orchestrierung: LangGraph für Tool Use, Workflow Logik, Self Reflection
LLMs: Open Source Modelle on premise oder API basierte Modelle, je nach Governance und Kostenrahmen
Sicherheit und Governance: RBAC, PII Filtering, Inhaltsrichtlinien, Prompt Policies, Audit Log, EU Datenhaltung
Liferay DXP eignet sich besonders als Frontdoor für Wissen, weil Rollen, Segmente und Workflows bereits vorhanden sind und sich KI nahtlos in Portlets und Seiten integrieren lässt. Bestehende Confluence oder SharePoint Inhalte bleiben die Quelle, die KI liefert nur die Antwortschicht.
Zielbild definieren Ziele, KPIs, Nutzergruppen, Schutzbedarfe
Quellen inventarisieren Inhalte, Formate, Metadaten, Löschfristen, Rechtslage
Zugriff klären RBAC Mapping, Service Accounts, Protokollierung
RAG Basis aufbauen Connectoren, Chunking Strategie, Embeddings, Vektor Index
Agenten und Policies modellieren Tools, Entscheidungsbäume, Guardrails, Eskalation an Menschen
Pilot, messen, skalieren Suchzeit, First Contact Resolution, Onboarding Zeit, Qualitätsfeedback, kontinuierliche Verbesserung
Deutlich kürzere Suchzeiten im Arbeitsalltag
Spürbar schnelleres Onboarding und weniger Schattenwissen
Höhere Konsistenz in Antworten und Entscheidungen dank Quellenzitaten
Bessere Nutzung bestehender Dokumentation statt Neuschreiben
Ein Maschinenbauer bündelte Confluence, Tickets und Dateiserver zu einem Frag dein Wissen Layer im Liferay Portal. Zugriffsrechte wurden übernommen, Antworten erscheinen mit Zitaten und Links zurück in die Quelle. Bereits nach wenigen Wochen wurden häufige Anfragen im Service durch den Expert Assist beantwortet, neue Mitarbeitende erreichten schneller Produktivitätsniveau und die Zahl redundanter Dokumente sank.
DSGVO und Datensouveränität Verarbeitung in der EU, Logging, Auftragsverarbeitung
Sicherheit Least Privilege, Secret Management, Zero Trust Integration
Transparenz Quellenzitate, Erklärtexte, Feedbackknopf in jeder Antwort
Governance Policy Katalog, menschliche Freigabe für sensible Bereiche, regelmäßige Evaluierung
Wir verbinden Portale wie Liferay DXP mit Ihrem Wissensökosystem, implementieren RAG und LLM Agenten mit LangGraph und sorgen für Audit, Guardrails und Betriebsreife. Ergebnis ist ein Wissensmanagement, das nicht wie Archiv wirkt, sondern wie Produktivitätsfunktion.
Starten Sie mit einem vierwöchigen Pilot aus drei Quellen, einem klaren KPI Set und einer abgesicherten RAG Pipeline. Danach skalieren wir in Richtung Onboarding Assists und Micro Trainings.
LLM Agenten machen verstreutes Wissen dort nutzbar, wo gearbeitet wird
RAG und Agenten liefern Antworten mit Quellen und Rechten
Governance und Messbarkeit sind Dreh und Angelpunkt
Ziele, Quellen und Rechte klären
RAG Basis und Agenten mit Guardrails aufbauen
Pilot messen, ausrollen, verbessern