FAQ

  • KoKI ist eine Plattform zur Nutzung von Künstlicher Intelligenz, speziell konzipiert und realisiert für die öffentliche Verwaltung. Entwickelt und gehostet durch die kdvz Rhein-Erft-Rur und als Kooperations-Produkt betrieben zusammen mit der Südwestfalen-IT und der ITK-Rheinland.

    Eine ausführlichere Beschreibung, was KoKI ist und was es nicht ist, finden Sie hier: Es ist, was es ist.

    In der Plattform bieten wir diverse Lösungen zur Nutzung von KIs. Die offensichtlichste ist die Chat-Oberfläche, in der Sie (wie auch bei ChatGPT oder anderen) mit einem LLM (= Large Language Model) chatten können. Diese LLMs gehören zur Kategorie der sog. „Generative AI“, also generativer KI. Diese generieren Text aus Ihren Eingaben (Prompts).

    Generative KIs (LLMs) können Fehler machen und sind keine Wissensdatenbanken oder Suchmaschinen – es sind Text-„Erfinder“. Sie sind darauf trainiert, Antworten zu liefern – auch wenn diese falsch sind. Lesen Sie mehr dazu hier: Halluzinieren

  • Dies ist ein bekannter Bug der OpenSource Software „OpenWebUI“, die wir als Oberfläche für KoKI nutzen. Bis dieser Fehler behoben ist (liegt leider außerhalb unserer Einflussmöglichkeiten) müssen wir damit leben. Abhilfe schafft ein Neu-Laden der Seite (Reload).

    Falls Sie sich auch nach einem Reload trotzdem nicht einloggen können, schreiben Sie bitte an unseren Support unter koki@kdvz.nrw
    Bitte fügen Sie der Mail noch ein paar Informationen hinzu, wie z.B.: Betriebssystem, Browser, mögliche Firewall usw.
    Wir versuchen dann schnellstmöglich zu helfen.

    Update 25.02.2026

    Der Fehler wurde behoben. Sollten Sie trotzdem diese Fehlermeldung erhalten, wenden Sie sich bitte an unseren Support – siehe oben.

  • KoKI nutzt sog. Large Language Modells (LLM) um eine Antwort zu generieren. Diese LLMs sind sog. „Transformer“ – sie transformieren Eingabe-Text in Ausgabe-Text. Es sind keine Suchmaschinen, die Wissen liefern. Sie produzieren Antworten, auch wenn diese falsch sind. So sind sie gebaut und trainiert.

    Dieses Phänomen nennt man „Halluzinieren“. In diesem Artikel finden Sie mehr Informationen, warum LLMs das tun und wie man gegensteuern und die Qualität der Antworten verbessern kann: Halluzinieren


Nach oben scrollen