Wenn KI „hilft“, obwohl sie nicht sollte
In vielen österreichischen Unternehmen ist KI längst Teil des Tagesgeschäfts. Sie nimmt Anfragen entgegen, beantwortet Standardfragen oder unterstützt im Kundenkontakt. Genau hier entsteht jedoch ein oft unterschätztes Problem.
Ein typisches Beispiel aus dem Tourismus:
Ein Hotel setzt einen KI-Assistenten ein, um telefonische Anfragen zur Zimmerverfügbarkeit entgegenzunehmen. Ein Gast fragt nach einem Doppelzimmer für die kommende Woche. Das System kennt Saisonzeiten und Standardpreise, hat aber keinen Live-Zugriff auf das Buchungssystem.
Statt diese Unsicherheit klar zu kommunizieren, antwortet die KI:
„Grundsätzlich sind noch Zimmer verfügbar.“
Die Aussage wirkt plausibel – ist aber nicht verlässlich.
Die Folge sind Rückrufe, Korrekturen und ein unnötiger Mehraufwand für das Team.
Was hier passiert, ist keine Fehlfunktion der KI. Es ist ein Mangel an Tool-Disziplin.
Halluzinationen entstehen dort, wo Zuständigkeiten nicht klar definiert sind
Ein weiteres Beispiel aus dem KMU-Umfeld:
Ein KI-System beantwortet Anfragen zu Öffnungszeiten, Besuchsregelungen oder Fristen. Diese Informationen unterscheiden sich je nach Standort, Feiertag oder interner Regelung. Fehlt eine verpflichtende Abfrage der aktuellen Datenquelle, greift die KI auf allgemeine Annahmen zurück.
Das Ergebnis:
Antworten klingen professionell
Inhalte sind nicht validiert
Mitarbeiter müssen im Nachgang korrigieren
Gerade in Österreich, wo Prozesse oft regional, betrieblich oder rechtlich unterschiedlich geregelt sind, wird dieses Problem besonders sichtbar.
Tool-Disziplin als operatives Grundprinzip
Tool-Disziplin bedeutet, dass ein KI-System nicht selbst entscheidet, ob es über ausreichende Informationen verfügt.
Sobald eine Information nicht eindeutig im sicheren Kontext liegt, ist ein Tool-Aufruf verpflichtend, oder die Aussage unterbleibt.
Konkret heißt das:
Verfügbarkeiten → immer Live-Abfrage
Fristen & Zuständigkeiten → immer Datenquelle
Keine Antwort vom Tool → keine inhaltliche Zusage
Diese klare Logik reduziert nicht nur Halluzinationen, sondern sorgt für:
nachvollziehbare Entscheidungen
konsistente Kommunikation
höheres Vertrauen bei Nutzern
Verwaltung und Dienstleistung: Wenn Präzision entscheidend ist
Besonders sensibel ist der Einsatz von KI in verwaltungsnahen oder dienstleistungsorientierten Bereichen, etwa bei Gemeinden, Genossenschaften oder ausgelagerten Servicestellen.
Fragen wie:
„Welche Unterlagen werden benötigt?“
„Bis wann gilt diese Frist?“
„Wer ist zuständig?“
dürfen nicht auf Wahrscheinlichkeiten basieren.
Hier sind Halluzinationen nicht nur ärgerlich, sondern potenziell haftungsrelevant.
Tool-Disziplin wirkt in diesem Kontext wie ein Sicherheitsnetz:
Ohne valide Quelle gibt es keine Aussage – und genau das erhöht die Qualität des Systems.
Warum disziplinierte Systeme natürlicher wirken
Paradoxerweise empfinden Nutzer streng geführte KI-Systeme oft als „ehrlicher“ und „menschlicher“.
Der Grund: Menschen erwarten keine Allwissenheit, sondern Verlässlichkeit.
Eine KI, die sagt:
„Dazu habe ich aktuell keinen Zugriff, ich kläre das für Sie“
wirkt glaubwürdiger als ein System, das jede Frage sofort beantwortet – auch wenn es rät.
Gerade im telefonischen Kontakt, wo keine visuelle Kontrolle möglich ist, wird diese Klarheit zur entscheidenden Qualität.





