CrewBrain wird AI-ready

Wir veröffentlichen als einer der ersten Personalplanungssoftware-Anbieter unsere MCP-Integration. Das sind gute Neuigkeiten für alle, die CrewBrain gerne mit einem LLM ihrer Wahl nutzen möchten – ein weiterer Schritt, den wir in Richtung smarterer Planung gehen.

Wie richte ich das ein?

Die Einrichtung und technischen Voraussetzungen erklären wir dir in einem separaten Wiki-Artikel.

Hintergründe: Was steckt hinter unserer MCP-Integration?

Mit dem Launch unseres MCP-Servers bringt CrewBrain einen wichtigen Baustein für die Verbindung von KI (z. B. großen Sprachmodellen, LLMs) und Personaleinsatzplanung heraus. Kurz: Der MCP-Server stellt die Schnittstelle dar, über welche KI-Clients mit dem CrewBrain-System interagieren können, z. B. zum Anlegen von Jobs oder Kunden.

Einige technische Eckpunkte:

  • Die Authentifizierung kann über OAuth mit Dynamic Client Registration (DCR) erfolgen. 
  • Alternativ kann ein Token-Authentifizierungsweg genutzt werden oder – weniger empfohlen – Basic Auth mit Benutzername und Passwort. 
  • Der MCP-Server unterstützt im Kern ein ähnliches Feature-Set wie die bestehende CrewBrain API v2 und wird aktiv weiterentwickelt. 
  • Aktuell erfolgt die Kommunikation über SSE (Server-Sent Events). Wer einen Client verwendet, der nur HTTP Streamable Transport unterstützt, kann sich bei uns melden. Wir prüfen dann, ob eine zeitnahe Integration von Streamable HTTP möglich ist.

All das zeigt unser Commitment zu modernen Technologien ohne Lock-In auf die KI eines bestimmten Anbieters. Wir schaffen die technische Infrastruktur, damit unsere Kunden CrewBrain mit ihrer bevorzugten KI benutzen können.

Was kann man damit machen? Beispiele & Anwendungsszenarien

Mit der MCP-Integration eröffnen sich verschiedene spannende Anwendungsmöglichkeiten, z. B.:

Reporting & Insights: KI-Assistenten könnten aus den Planungs- und Einsatzdaten Trends ableiten („In den letzten 3 Monaten gab es durchschnittlich 12 Überstunden pro Woche in Abteilung B“) und Vorschläge für Verbesserungen machen („Überlege, zusätzlich eine Schicht zu planen oder mehr Teilzeitkräfte einzusetzen“).

Chatbasierte Planungshilfe: Ein Chat-Interface (z. B. ein LLM wie ChatGPT oder ein anderes Modell) fragt nach: „Wie sieht der Dienstplan für nächste Woche aus?“ und das System liefert eine Zusammenfassung basierend auf den Daten in CrewBrain. Oder: „Lege einen Job Fahrzeug zurückbringen am Samstag von 10-12 Uhr an Location Leipzig an.“ Das LLM erstellt den technischen Aufruf, der MCP-Server nimmt diese Aufgabe entgegen und erstellt den Eintrag in CrewBrain.

Integration mit anderen Systemen: Wenn z. B. ein Chatbot im Mitarbeitenden-Portal eingebettet ist, könnten Mitarbeitende über Sprache oder Text Änderungswünsche äußern („Ich will nächsten Dienstag frei nehmen“) und das System prüft automatisch und erstellt ggf. den Antrag oder schlägt alternative Termine vor. Über den MCP-Server wird der Zugriff auf CrewBrain-Daten ermöglicht.

Denke an den EU AI Act!

Bitte behalte bei der Wahl und Umsetzung deiner KI-Integration den EU AI Act im Hinterkopf, wenn du dich in der EU aufhältst oder für eine Firma mit Sitz in der EU tätig bist. Der EU AI Act begrenzt bestimmte KI-Integrationen und stellt Anforderungen an die Nachvollziehbarkeit der KI-Entscheidungen, insbesondere wenn sie sich auf dein Personal auswirken. Siehe hierzu auch unseren Artikel „KI in der Personalplanung – was ist in der EU erlaubt und was nicht?„.

Warum das ein wichtiger Schritt für CrewBrain ist

  • Flexibilität & Offenheit: Durch die MCP-Schnittstelle ist keiner auf ein vordefiniertes KI-Tool limitiert – Kund:innen können den KI-Assistenten ihrer Wahl integrieren. Auch komplett eigens gehostete KIs, die besonders datenschutzfreundlich sind, sind dadurch in Verbindung mit CrewBrain nutzbar.
  • Zukunftsfähige Planung: KI kann viele repetitive Arbeitsschritte erleichtern, z. B. das Ändern von Kunden und Locations aus einer Excel-Liste.
  • Effizienzsteigerung & Entlastung: Routine-Anfragen (z. B. „Habe ich nächste Woche Frühdienst?“) können Mitarbeitenden automatisiert beantwortet werden.
  • Sicherheit & Standardisierung: Durch OAuth/DCR und Token-Authentifizierung wird ein moderner Sicherheitsrahmen geboten.

Datenschutzimplikationen

Mit der MCP-Integration ändert sich vor allem die Art, wie du mit CrewBrain interagierst. Wichtig sind dabei ein paar Punkte:

  • Handeln im Namen des Users: Ein angebundener KI-Assistent arbeitet immer in deinem Benutzerkontext: Er kann nur auf die Daten zugreifen und Aktionen ausführen, zu denen dein CrewBrain-Account auch berechtigt ist. Die Authentifizierung erfolgt dabei z. B. über OAuth mit Dynamic Client Registration oder über einen persönlichen Access Token.
  • Datenfluss zur KI: Jede KI-Integration entscheidet selbst, welche Daten sie an das jeweilige LLM sendet. Das kann von stark minimierten, abstrahierten Informationen („Gib mir eine Übersicht der Einsätze nächste Woche“) bis hin zu detaillierten Datensätzen reichen. Hier lohnt es sich, vorab klar festzulegen:
    • Welche Felder wirklich notwendig sind
    • Ob sensible Daten (z. B. Namen) pseudonymisiert oder weggelassen werden können
    • Welche Aktionen die KI auslösen darf (nur lesen vs. auch schreiben)
  • Wahlfreiheit beim Hosting: Durch MCP kannst du
    • Cloud-LLMs großer Anbieter nutzen (z. B. ChatGPT mit OAuth-Anbindung) 
    • oder komplett selbst gehostete Modelle anbinden, die ausschließlich in deiner eigenen Infrastruktur laufen. Gerade letzteres ist für viele besonders attraktiv, wenn es um Compliance- und Datenschutzanforderungen geht.
  • Vertrags- & Compliance-Themen Wenn du externe LLM-Anbieter einbindest, gelten deren Nutzungsbedingungen und Datenschutzregelungen zusätzlich zu denen von CrewBrain. Prüfe insbesondere:
    • Werden gesendete Daten zum Training genutzt?
    • Wo stehen die Server (EU / Drittland)?
    • Gibt es einen Auftragsverarbeitungsvertrag (AVV / DPA)?
    Für hochregulierte Umfelder kann es sinnvoll sein, entweder EU-gehostete KI-Dienste oder ein eigenes On-Prem-Modell zu nutzen.
  • Best Practices
    • Rollen & Rechte in CrewBrain sauber pflegen – die KI erbt diese.
    • Nur so viele Daten an die KI geben, wie für den Anwendungsfall nötig (Datenminimierung).
    • Intern dokumentieren, welche KI-Dienste angebunden sind und wofür sie genutzt werden.
    • Datenschutzbeauftragte frühzeitig einbinden, insbesondere bei neuen, datenintensiven Use-Cases.
    • Erlaubnis der Nutzer des Systems vor Nutzung einholen.

Denke bitte daran: LLMs sind dafür bekannt, ungewünschte Aktionen auszuführen oder Chats zu Trainingszwecken zu verwenden. Im Zweifelsfall gibst du einem fremden Akteur (z. B. OpenAI) damit die Möglichkeit, auf die Daten deines CrewBrain-Systems zuzugreifen. Um den Zugriff eines per OAuth registrierten Clients zu entziehen, geh bitte in Verwaltung -> Api -> OAuth und lösche den entsprechenden Client. Ab diesem Zeitpunkt ist seine Anmeldung nicht mehr gültig und es können Daten nicht mehr eingesehen werden.

Deine weiteren Schritte

Wir freuen uns auf Integrationen, die du und dein Team mithilfe von KI und dem MCP-Protokoll bauen! Wir empfehlen dir, folgende Checkliste abzuarbeiten, bevor du ein KI-System einsetzt:

  • Wer im Team darf KI-Integrationen testen oder konfigurieren?
  • Wenn du einen öffentlichen, nicht selbst-gehosteten LLM-Anbieter (wie z. B. OpenAI) nutzt, hole vor Verwendung die Einwilligung deiner Nutzer ein, dass ihre Daten von diesem verarbeitet werden.
    • Bei Einsatz eines eigenen LLMs hast du mehr Kontrolle über die Daten. Gleichzeitig ist es aber je nach Nutzung notwendig, den genauen Anwendungsfall zu überprüfen. Z. B. gilt KI, die zur Leistungsmessung oder -kontrolle eingesetzt wird, per EU-AI-Act als Hochrisiko-Anwendung eingestuft und bedarf daher Bias-Tests. Der Einsatz sollte vorher zwingend mit dem Datenschutzbeauftragten abgesprochen werden.
  • Welche Tools darf mein MCP-Client nutzen? In der Regel bieten dir die Clients an, an- und abzuwählen, welche Tools genutzt werden dürfen. So könntest du z. B. rein auf Abwesenheiten einschränken, wenn nur Urlaube angelegt werden sollen.
    • Im Bestfall richtest du einen CrewBrain-Nutzer mit darauf beschränkten Rechten ein. So kann das LLM nicht „ausscheren“ und kommt gar nicht erst an Informationen, die nicht dafür bestimmt sind.
  • Hol dein Team an Board und besprich mit ihm gemeinsam, ob und wie ihr AI einsetzen wollt und überprüft regelmäßig, ob sie euch wirklich Vorteile bringt – bei manchen Aufgaben ist man als trainierter CrewBrain-Nutzer einfach schneller als jeder Computer.

Ein Reality-Check: Was kann KI überhaupt?

Wir haben in Vorbereitung auf unseren Launch natürlich fleißig getestet. KI, die mit CrewBrain interagieren soll, muss besonders gut in der Disziplin des „Tool-Calling“ sein. Tool-Calling ist im Endeffekt der Prozess, natürliche Sprache in ein für Computer lesbares Format zu wandeln, womit der MCP-Server dann umgehen kann.

Was in unseren Tests1 gut lief

Im Allgemeinen funktioniert KI in Verbindung mit CrewBrain gut, wo nur wenige „Tool-Calls“ notwendig sind, also ein einfaches Abfragen, Anlegen, Ändern oder Löschen von Datensätzen. Zudem fällt es KI im Allgemeinen leichter, mit Systemen umzugehen, die nur ein kleines bis mittleres Maß an Datensätzen (z. B. dutzende Jobs, dutzende Mitarbeiter) haben. Bisher konnten wir kein unerwünschtes Verhalten in ChatGPT feststellen (z. B. versehentliches Löschen von Datensätzen). Ein paar Anfragen, für die wir im Test mit ChatGPT bereits gute Ergebnisse erhalten:

  • Lege Kunde XYZ an (zum Beispiel durch Einfügen der E-Mail-Signatur des Kunden)
    • Lege mehrere Kunden an aus dieser Excel-Liste (mit angehängter Excel-Liste).
  • Mitarbeiter B ist vom 23.12.2025 bis 30.12.2025 im Urlaub. Lege den Urlaub an.
  • Mitarbeiter A hat sich krankgemeldet. Lege die Krankmeldung an.
  • Erstelle Mitarbeiter Vorname Nachname, Straße 5, PLZ Ort. Die E-Mail-Adresse lautet xyz@gmail.com.
    • Lege mehrere Mitarbeiter an aus dieser Excel-Liste (mit angehängter Excel-Liste).
  • Lege den Job „Event“ in Location an.
  • Ändere die Telefonnummer von Mitarbeiter/Kunde XYZ.
  • Welche Jobs dieser Excel-Liste sind schon angelegt? (mit angehängter Excel-Liste)
  • Buche Mitarbeiter XYZ auf Job „Event“.
  • Ändere „Event“ von 10:00 bis 19:00 Uhr auf 09:00 bis 19:00 Uhr.
  • Wer hat am 23.12.2025 Urlaub?
  • Welche Jobs stehen in dieser Woche an?
  1. Selbstverständlich haben wir die Tests auf einem eigenen Testsystem durchgeführt. Das heißt, dass sich das LLM noch einmal unterschiedlich im Zusammenhang mit deinen echten Daten verhalten könnte. ↩︎

…und was nicht so gut lief

In Systemen, die hunderte bis tausende Datensätze haben, tut sich KI bisher schwer, da hier viel gefiltert werden muss. Berechnungen sind oft falsch oder das LLM weiß nicht weiter. Wir können uns hier aber vorstellen, dass du ein speziell trainiertes Modell mit zusätzlichen Möglichkeiten ausstatten könntest (z. B. das Ausführen von kleinem Python-Code, um Berechnungen durchzuführen).

  • Wie viele Stunden hat Mitarbeiter im Oktober gearbeitet?
  • Buche mir Leute in meinen Job „Event“.
  • Lege einen Abrechnungszeitraum für Mitarbeiter an. (Das wird derzeit nicht von unserer Schnittstelle unterstützt)

Reality-Check: Unser Resümee

Unsere Tests haben wir auch mit LLMs anderer Anbieter durchgeführt und dabei fällt auf, dass aktuell im Tool-Calling tendenziell chinesische und teils kleinere open-source Modelle besser performen, z. B.

  • Kimi K2 (modifizierte MIT License; Moonshot AI)
  • GLM 4.6 (MIT License; Z.ai)
  • Qwen3 Coder (Apache 2.0 License; Qwen)
  • GPT-OSS 120B (Apache 2.0 License; OpenAI)

Eine Liste der Modelle, die besonders gut im Tool-Calling sind, findest du bei OpenRouter.

Gerade in der Anfangsphase wird es oft der Fall sein, dass du am optimalen Wording für die AI arbeiten musst, damit sie genau versteht, was du tun möchtest. Wenn du oder die AI mal nicht weiterkommen, schau gerne hier nach, welche Inhalte das Tool erwartet. Mit expliziten Hinweisen weiß das LLM dann oft weiter.

Hast du einen guten Anwendungsfall gefunden? Dann teile ihn mit uns und nutze dabei den Hashtag #crewbrainai – wir freuen uns schon auf deine Ideen!

Der Artikel ist auch in en_US verfügbar.

Diese Posts könnten dir gefallen

Englische Sprachversion und viele kleine Optimierungen

Der GigPlaner ist jetzt auf Englisch verfügbar, mit optimierten Funktionen wie internationalem Datums- und Zahlenformat, verbesserten Arbeitszeiterfassungen und neuen Möglichkeiten in der WebApp, um Dokumente hochzuladen und Kundeninformationen abzurufen.
Post ansehen

Dienstleister und Subunternehmer

Der GigPlaner bietet jetzt eine systemseitige Unterstützung für Dienstleister und Subunternehmer, ein neues Reisekostenarchiv, erweiterte Abrechnungsmöglichkeiten und die Option, Willkommensmails nachträglich zu versenden, um die Personalplanung effizienter und übersichtlicher zu gestalten.
Post ansehen

CrewBrain vs. Shyftplan

Kurzfassung: Wofür sind die Tools gebaut? Preis & Transparenz Typische Einsatzgrößen Stärken im Schnelldurchlauf Vergleichstabelle CrewBrain shyftplan Fokus Event- & Projektplanung + Zeiterfassung KI-Schichtoptimierung & Skill-Management Preismodell 29 / 49…
Post ansehen