Was ist der Unterschied zwischen Langdock und ChatGPT/Copilot?
Der Hauptunterschied liegt in der Unabhängigkeit, der Datensicherheit und dem Hosting.
Modell-Agnostizität: Du bist nicht an einen Anbieter gebunden („Vendor-Lock-in"). Du nutzt Claude für Texte, Gemini für Analysen und GPT für Alltägliches – alles in einer Oberfläche.
Team-Fokus: Langdock ist ein Workspace für Zusammenarbeit, Verwaltung und Governance, nicht nur ein Einzelspieler-Chat.
Kein Training: Deine Daten werden vertraglich garantiert nicht zum Training der KI-Modelle verwendet.
Welche KI-Modelle sind in Langdock verfügbar?
Langdock bietet Zugriff auf die aktuellsten Spitzenmodelle (Stand Januar 2026):
Hosting komplett in Deutschland (Frankfurt am Main) auf Microsoft Azure
ISO 27001 und SOC 2 Typ II zertifiziert
Verschlüsselung bei Übertragung und im Ruhezustand (AES-256)
2. KI-Modelle:asdfasdfdas
Die meisten Modelle sind auch mit EU-Hosting verfügbar (in der Modellauswahl gekennzeichnet)
Du kannst im Workspace festlegen, dass nur EU-gehostete Modelle genutzt werden dürfen
Auch bei US-gehosteten Modellen gilt: Keine Nutzung deiner Daten zum Training
Werden meine Daten zum Training der KI-Modelle verwendet?
Nein.
Langdock garantiert vertraglich, dass deine Eingaben und Unternehmensdaten niemals zum Training der KI-Modelle verwendet werden. Das gilt für alle über Langdock bereitgestellten Modelle. Dies wird auch im Data Processing Agreement (DPA) festgehalten.
Ist Langdock DSGVO-konform?
Ja, vollständig.
Standort
Hosting der App und Datenbank in der EU (Frankfurt)
Rechtliches
Ein Data Processing Agreement (DPA) ist direkt in die AGB integriert und wurde von hunderten Rechtsabteilungen geprüft
Zertifizierungen
ISO 27001 und SOC 2 Typ II
Kosten & Lizenzierung
Wie funktioniert das Preismodell von Langdock?
Chat & Assistants (Business Plan):
20,00 € pro Nutzer/Monat (bei jährlicher Zahlung)
Nutzung der KI-Modelle im Rahmen der Fair Use Policy inklusive
Workflows (separate Abrechnung):
Workflows sind automatisierte Prozesse, die im Hintergrund laufen
Pakete z.B. „Business" für 40.000 Runs/Monat für 449 € pro Workspace
Zusätzlich: API-Kosten für die genutzten KI-Modelle (verbrauchsbasiert)
Testphase:
7 Tage kostenlos (inkl. 5 € Modell-Guthaben)
💡Tipp: Mit dem Partner-Code DECAID erhältst du 5 % Rabatt.
Gibt es versteckte Kosten oder Limits?
Für den normalen Chat-Nutzer gibt es keine versteckten Kosten, aber eine Fair Usage Policy, um die Systemstabilität zu sichern:
Hinweis: 99 % der Nutzer erreichen diese Limits im Alltag nicht. Sollte es passieren, kannst du temporär auf ein effizienteres Modell wechseln.
Daten & Wissensanbindung
Welche Möglichkeiten gibt es, Daten an Langdock anzubinden?
Das ist eine der wichtigsten Fragen – und die häufigste Ursache für Frust. Es gibt drei fundamental unterschiedliche Methoden, die für völlig verschiedene Zwecke geeignet sind:
Methode 1: Manueller Datei-Upload
Du lädst Dateien per Drag & Drop direkt in einen Chat oder Assistenten hoch.
Vorteile
In 30 Sekunden eingerichtet
Keine IT-Freigabe nötig
Nachteile
Veraltet sofort (keine Synchronisation)
Manuelles Neu-Hochladen bei Änderungen
Geeignet für: Wissen, das sich nie ändert (z.B. historische Berichte).
Du synchronisierst einen ganzen Ordner mit hunderten Dokumenten. Das System nutzt dann RAG (Retrieval-Augmented Generation).
Vorteile
Funktioniert mit hunderten/tausenden Dokumenten
Automatische Synchronisation
Findet Fakten in großen Datenmengen
Nachteile
Kein Gesamtverständnis – KI sieht nur Schnipsel
Kann keinen Stil oder Tonalität lernen
Ungeeignet für kreative Aufgaben
Geeignet für: FAQ-Bots und Wissens-Bots, die Fakten aus großen Dokumentenmengen fischen.
Beispiel: HR-Bot antwortet auf „Wie viele Tage Vaterschaftsurlaub gibt es?" → findet den relevanten Satz in 200 HR-Dokumenten.
⚠️ Die „Ordner-Falle"
Das häufigste Problem, das wir sehen: Nutzer wechseln von Direct Attachments auf Ordner-Sync, weil es „bequemer" ist – und wundern sich, warum der Assistent plötzlich generische Antworten liefert.
Die Regel:
Brauchst du Stil, Strategie, Kreativität? → Direct Attachments (Methode 2)
Brauchst du Fakten-Suche in vielen Dokumenten? → Ordner-Sync (Methode 3)
Setup & Konfiguration
Wie richte ich meinen Workspace am besten ein?
Der wichtigste Schritt, den viele überspringen, sind die globalen Einstellungen:
01
Unternehmenskontext ausfüllen
Hinterlege zentral Boilerplate, Mission, Produkte und Tonalität
02
Rollen & Rechte klären
Wer darf Agents global veröffentlichen?
03
Integrationen aktivieren
Verbinde Cloud-Speicher, um Datensilos zu vermeiden
Was sollte in die Unternehmensbeschreibung rein?
Dieses Feld in den Workspace-Einstellungen („Allgemein") ist der Hebel für Konsistenz:
Boilerplate
Wer seid ihr in einem Satz?
Mission & Werte
Wofür steht ihr?
Produkte & Services
Was verkauft ihr an wen?
Tonalität (Brand Voice)
Duzen/Siezen? Direkt oder blumig?
Zielgruppe (ICP)
Wen wollt ihr erreichen?
Effekt: Dieser Kontext wird jedem Prompt im Hintergrund mitgegeben („Context Injection").
Welches Modell soll ich als Default einstellen?
💡Tipp: Ermutige Mitarbeiter, das Modell je nach Aufgabe oben links im Header zu wechseln.
Governance & Adoption
Soll jeder Mitarbeiter Agents bauen dürfen?
Ja, definitiv. Es macht Sinn, einige Agents „Top-Down" bereitzustellen (z.B. HR-Richtlinien, IT-Support). Aber in Organisationen gibt es tausende kleine Anwendungsfälle, die man zentral gar nicht alle abbilden kann.
Die Strategie:
Enablement: Befähige alle Mitarbeiter, Lösungen für ihre eigenen Probleme zu bauen („Bottom-Up Innovation")
Governance: Nicht jeder Agent sollte für den gesamten Workspace freigeschaltet werden. Team-interne oder private Agents sind oft sinnvoller als eine überflutete globale Bibliothek.
Wie messe ich, ob Langdock wirklich genutzt wird?
Langdock bietet im Admin-Bereich Analytics an:
Welche Agents werden am häufigsten genutzt?
Aktive Nutzer vs. gekaufte Lizenzen
Identifiziere „Schatten-KI" durch anonyme Umfragen vor und während des Rollouts