Start / Use Cases / KI-Wissenssuche

Wie machen wir internes Firmenwissen über Teams durchsuchbar?

Bei euch sind die Antworten irgendwo da — in SharePoint, in alten Mails, im Wiki, in der Mappe von der Kollegin, die in zwei Wochen Urlaub hat. Aber gefragt wird trotzdem in WhatsApp, weil das schneller geht. Diese Seite beschreibt, wie aus eurem verteilten Firmenwissen eine durchsuchbare Antwort-Quelle in Teams wird —

Bei euch sind die Antworten irgendwo da — in SharePoint, in alten Mails, im Wiki, in der Mappe von der Kollegin, die in zwei Wochen Urlaub hat. Aber gefragt wird trotzdem in WhatsApp, weil das schneller geht. Diese Seite beschreibt, wie aus eurem verteilten Firmenwissen eine durchsuchbare Antwort-Quelle in Teams wird — mit zitierten Originalquellen, nicht mit einer halluzinierenden Black Box.

Hast du diese Situation?

Warum das jetzt löst statt verschoben wird

So sähe das bei dir aus

Schritt 1 — Wissens-Bestand sichten und sortieren (Woche 1–2)

Bevor wir irgendetwas indexieren, klären wir gemeinsam: Wo liegt was, was ist offiziell, was ist veraltet, was darf jede:r sehen und was nicht. Das ist die unbequeme Phase — sie ist aber auch die wichtigste. Eine KI-Suche über eine schlecht sortierte Datenbasis liefert schlechte Antworten, egal wie gut das Modell ist.

Stack: SharePoint Admin Center, Microsoft Graph, Berechtigungs-Audit. Ergebnis: eine Liste von Quellen, die in die Suche aufgenommen werden, plus eine Liste von Quellen, die vorher aufgeräumt werden müssen.

Schritt 2 — RAG-Architektur aufsetzen (Woche 3–5)

Das Muster heißt Retrieval-Augmented Generation: Bei jeder Frage durchsucht das System euer Firmenwissen, holt die relevantesten Passagen, und ein Sprachmodell formuliert daraus eine Antwort — mit Verweis auf die Originalquelle, sodass die fragende Person nachlesen kann. Kein „die KI hat sich das ausgedacht”, sondern „Antwort kommt aus diesem konkreten SharePoint-Dokument, Stand letzter Update”.

Stack: Azure AI Search als Index, Microsoft Graph API als Zugriff auf SharePoint und OneDrive, Azure OpenAI Service oder Foundry für das Sprachmodell, alles in eurem eigenen Azure-Tenant — eure Daten verlassen nicht euer Microsoft-Umfeld.

Schritt 3 — Teams-Bot als Eingang (Woche 5–6)

Mitarbeitende fragen nicht in einer neuen App, die sie installieren müssen. Sie fragen, wo sie ohnehin sind — in Teams. Wir bauen einen Bot, den man wie jede andere Person ansprechen kann: „Wie war nochmal die Reklamations-Vorgehensweise über 5.000 Euro?” Antwort kommt in zwei bis fünf Sekunden, mit Link zur Originalquelle. Wenn die KI keine sichere Antwort hat, sagt sie das — statt zu raten.

Stack: Microsoft Bot Framework, Teams-App-Manifest, optional Power Platform für einfache Anbindungen.

Schritt 4 — Berechtigungen respektieren (Woche 4–6, parallel)

Das ist der Punkt, an dem viele KI-Projekte scheitern: Die Suche darf nur Antworten geben aus Dokumenten, die die fragende Person tatsächlich sehen darf. Wer keinen Zugriff auf den Geschäftsführungs-Ordner hat, soll auch keine Antworten daraus bekommen — auch nicht zusammengefasst. Wir setzen die Suche so auf, dass sie eure SharePoint-Berechtigungen ehrt, nicht umgeht.

Stack: Microsoft Graph mit Delegated Permissions, Azure AI Search mit Security Trimming.

Schritt 5 — Pilot, Feedback, Ausweitung (Woche 6–10)

Wir starten mit einer Pilotgruppe von 10–20 Leuten aus zwei oder drei Abteilungen. Sie nutzen den Bot drei bis vier Wochen, geben Feedback, markieren schlechte Antworten. Daraus passen wir Quellen-Auswahl, Prompts und Antwort-Format an. Erst wenn die Antworten in 80 % der Fälle nützlich sind, rollen wir breiter aus.

Worauf du dabei achten solltest

Was sich danach realistisch ändert

Was du beisteuerst

Risiken & wann es NICHT passt

So fängt das Gespräch an

30 Minuten Erstgespräch, kostenfrei, per Video oder Telefon. Was wir klären: Wo liegt euer Wissen heute überwiegend (SharePoint, Wiki, Tickets, Mails)? Welche Fragen werden bei euch besonders oft wiederholt gestellt? Habt ihr Copilot schon getestet oder bewusst nicht? Wie ist die Datenschutz- und Mitbestimmungs-Lage bei euch? Daraus ergibt sich, ob ein Eigenbau-RAG, Copilot oder eine kleinere Lösung der richtige Weg ist.

Reaktion remote sofort zu Service-Zeiten, Erstgespräch typischerweise in 3–5 Werktagen einrichtbar — ehrlich gesagt im Solo-Betrieb von meinem Kalender abhängig.

Erstgespräch buchen

Häufige Fragen

Halluziniert die KI dann nicht trotzdem? Halluzinationen entstehen vor allem, wenn ein Sprachmodell „aus dem Kopf” antwortet, ohne Quelle. Im RAG-Pattern wird die Antwort aus euren konkreten Dokumenten heraus formuliert, mit Verweis auf die Quelle. Bei guter Umsetzung sagt die KI „Dazu finde ich nichts in euren Quellen”, statt zu raten. Vollständig ausschließen lässt sich das nie, aber das Risiko sinkt deutlich.

Sehen Microsoft oder OpenAI dann unsere Firmendaten? Bei Nutzung von Azure OpenAI in eurem eigenen Azure-Tenant gelten die Microsoft-Enterprise-Bedingungen: eure Daten werden nicht für das Trainieren von Modellen verwendet, sie bleiben in der gewählten Azure-Region. Das ist nicht dasselbe wie ein privates ChatGPT-Konto eines Mitarbeitenden — und genau deswegen ist die Eigenbau-Variante datenschutzrechtlich klarer aufzusetzen.

Was kostet der Betrieb laufend? Nicht der Bot selbst ist der Kostentreiber, sondern die Modell-Aufrufe und der Suchindex in Azure. Bei einer 80-Personen-Firma mit moderater Nutzung bewegt sich der laufende Azure-Verbrauch typischerweise im niedrigen drei- bis vierstelligen Bereich pro Monat — abhängig stark von Modellwahl und Nutzungsintensität. Wir zeigen euch vor dem Rollout, wie ihr das selbst überwacht und deckelt.

Können wir das später auf andere Quellen erweitern — Tickets, ERP, CRM? Ja, und das ist einer der Gründe, einen Eigenbau-Ansatz statt rein Copilot zu wählen. Über Konnektoren oder eigene Adapter lassen sich auch Quellen außerhalb von SharePoint einbinden. Das macht aber erst Sinn, wenn der Erst-Bereich stabil läuft — sonst baut ihr Komplexität, bevor ihr den ersten Wert seht.

Verwandtes