Start / Use Cases / Ticket-Triage

Wie automatisieren wir die Ticket-Triage im IT-Service-Desk?

Euer 1st-Level bekommt täglich 30 bis 50 Tickets, und gefühlt ist davon zwei Drittel derselbe Frust — Passwort vergessen, Drucker offline, Zugriff auf Ordner X fehlt, Outlook startet nicht. Diese Seite beschreibt, wie ihr die Triage so weit automatisiert, dass euer Team wieder Zeit für die kniffligen 20 Prozent hat — u

Euer 1st-Level bekommt täglich 30 bis 50 Tickets, und gefühlt ist davon zwei Drittel derselbe Frust — Passwort vergessen, Drucker offline, Zugriff auf Ordner X fehlt, Outlook startet nicht. Diese Seite beschreibt, wie ihr die Triage so weit automatisiert, dass euer Team wieder Zeit für die kniffligen 20 Prozent hat — und der Mensch trotzdem im Loop bleibt, wo es zählt.

Hast du diese Situation?

Warum das jetzt löst statt verschoben wird

So sähe das bei dir aus

Schritt 1 — Ticket-Historie analysieren (Woche 1–2)

Wir schauen uns die letzten 6–12 Monate eurer Tickets an: Was ist die häufigste Kategorie, was sind die häufigsten Lösungen, wo hakt es zwischen 1st und 2nd Level, was wird falsch klassifiziert und führt zu Schleifen. Daraus entsteht eine Karte, welche Ticket-Typen automatisierbar sind, welche teil-automatisierbar, welche menschlich bleiben müssen.

Stack: API eures Ticket-Systems (Jira Service Management, Zammad, OTRS/Znuny, Freshservice, ServiceNow oder Microsoft Dynamics Customer Service — je nachdem, was bei euch läuft). Auswertung in Python, Ergebnis als kompakter Bericht für Geschäftsführung und IT-Leitung.

Schritt 2 — Klassifikator aufbauen (Woche 2–4)

Wir bauen einen Klassifikator, der ein eingehendes Ticket einer Kategorie zuordnet (Passwort, Hardware, Software, Berechtigung, Sonstiges), eine Dringlichkeit einschätzt (Standard, eilig, kritisch) und einen Vorschlag macht, an wen es gehen sollte. Der Klassifikator läuft auf einem Sprachmodell mit eurem eigenen Kategorie-Schema — nicht mit einem generischen „IT-Klassen”-Schema von der Stange.

Stack: Azure OpenAI in eurem Azure-Tenant, Klassifikations-Prompt mit Few-Shot-Beispielen aus euren echten Tickets, optional Feinjustierung über Evaluierungs-Runs.

Schritt 3 — Auto-Zuweisung und Erstantwort-Vorschlag (Woche 4–6)

Bei klaren Kategorien wird das Ticket automatisch an die zuständige Gruppe zugewiesen, und es wird eine vorgeschlagene Erstantwort generiert — basierend auf vorhandenen Lösungsartikeln oder ähnlichen, schon gelösten Tickets. Wichtig: Bei den ersten Wochen geht die Erstantwort NICHT automatisch raus. Ein Mensch sieht den Vorschlag und drückt Senden oder korrigiert. Mensch-im-Loop ist Standard, nicht Ausnahme.

Stack: Webhook oder Trigger in eurem Ticket-System, Verarbeitung via Azure Function oder Power Automate, Antwort-Vorschlag-Generierung über Azure OpenAI, optional Anbindung an eure interne Wissensbasis aus der RAG-Suche.

Schritt 4 — Eskalations-Logik mit Augenmaß (Woche 5–7)

Tickets, bei denen der Klassifikator unsicher ist (niedrige Konfidenz), gehen zurück in den menschlichen Eingang und werden NICHT automatisch zugewiesen. Lieber ein Ticket händisch nachbessern als zehn falsch zugewiesene, die anschließend durch alle Teams wandern. Wir kalibrieren die Konfidenz-Schwelle so, dass falsch-automatisierte Fälle die Ausnahme sind.

Stack: Konfidenz-Score aus dem Klassifikator, Fallback-Regel im Trigger, Logging in einen Dashboard-View für die IT-Leitung.

Schritt 5 — Pilot, messen, ausweiten (Woche 6–10)

Wir starten mit einer Kategorie — etwa Passwort-Resets und Standard-Zugriffsanfragen — und messen vier Wochen: Wie viele Tickets wurden korrekt vorklassifiziert, wie oft musste die Erstantwort geändert werden, wie schnell ging der Durchlauf. Erst wenn die Zahlen stimmen, erweitern wir auf weitere Kategorien. Ziel ist nicht „alles automatisieren”, sondern „die Routinen erkennen und sauber bearbeiten lassen”.

Worauf du dabei achten solltest

Was sich danach realistisch ändert

Was du beisteuerst

Risiken & wann es NICHT passt

So fängt das Gespräch an

30 Minuten Erstgespräch, kostenfrei, per Video oder Telefon. Was wir klären: Welches Ticket-System läuft bei euch, wie viele Tickets pro Tag, wie ist das 1st-Level besetzt, welche Themen wiederholen sich am häufigsten gefühlt — und was ist der aktuelle Auslöser (Personalmangel, Beschwerden über Reaktionszeit, Wachstum)? Aus diesem Bild ergibt sich, ob ein Klassifikator-Projekt der richtige Schritt ist oder zuerst etwas Anderes — etwa Aufräumen der Standard-Antworten — mehr bringt.

Reaktion auf eine Anfrage ist remote sofort zu Service-Zeiten. Erstgespräch typischerweise in 3–5 Werktagen einrichtbar — abhängig davon, was bei mir gerade läuft, ehrlich gesagt im Solo-Betrieb.

Erstgespräch buchen

Häufige Fragen

Was, wenn die KI ein Ticket falsch klassifiziert? In der Pilotphase passiert das mit Sicherheit. Deshalb läuft in den ersten Wochen ein Mensch über die Klassifikationen drüber, korrigiert offensichtliche Fehler, und diese Korrekturen fließen in die Justierung zurück. Erst wenn die Trefferquote stabil über 90 Prozent für eine Kategorie liegt, lockern wir die Mensch-im-Loop-Pflicht für diese Kategorie. Andere Kategorien bleiben weiter unter menschlicher Aufsicht.

Lesen Microsoft oder OpenAI dann unsere Tickets mit? Bei Nutzung von Azure OpenAI in eurem eigenen Azure-Tenant gelten die Microsoft-Enterprise-Bedingungen: eure Daten werden nicht für das Trainieren von Modellen verwendet, sie bleiben in der gewählten Azure-Region. Tickets mit besonders sensiblem Inhalt (Personalsache, Gesundheitsdaten) lassen sich vor der KI-Verarbeitung filtern oder anonymisieren.

Brauchen wir dafür ein neues Ticket-System? Nein, wenn das vorhandene API- oder Webhook-fähig ist. Stell euch eine 100-Personen-Firma mit Jira Service Management oder Zammad vor — beides lässt sich anbinden, ohne das System auszutauschen. Wenn allerdings noch in einer geteilten Mailbox gearbeitet wird, ist das ein eigenes Vorgespräch wert: Erst Ticket-System, dann Triage-Automation.

Wie lange dauert es, bis sich das im Alltag bemerkbar macht? In den ersten 4–6 Wochen sind die Veränderungen klein und unter Beobachtung — bewusst. Spürbare Entlastung kommt typischerweise im zweiten bis dritten Monat, wenn der Klassifikator für die häufigsten Kategorien stabil läuft. Wer schon nach zwei Wochen „bahnbrechende Effizienz-Sprünge” verspricht, hat entweder kein Mensch-im-Loop oder kein realistisches Verständnis vom Mittelstand.

Verwandtes