KI, die handelt, muss auch nachvollziehbar entscheiden können
Künstliche Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht. Sprachmodelle (LLMs) erstellen Texte, die kaum von menschlicher Sprache zu unterscheiden sind und Agentensysteme automatisieren selbst komplexe Abläufe. Doch mit wachsender Autonomie steigt auch die Verantwortung: Systeme, die Handlungen ausführen, müssen sicherstellen, dass ihre Entscheidungen zulässig, angemessen und regelkonform sind. Genau hier zeigt sich die Herausforderung – und die Chance: Der Übergang von Modell- zu System-zentrierten Denk-Strukturen.
Die Diskussion um KI-Sicherheit konzentriert sich bislang häufig auf das Modell selbst: Ist es robust? Halluziniert es? Wurde es fair trainiert? Diese Fragen sind wichtig – aber unzureichend, wenn es um Systeme geht, die konkrete Handlungen auslösen. Denn zwischen einem generierten Text und einer realen Handlung liegt ein qualitativer Unterschied. Texte können irreführen, aber daraus resultierende Handlungen haben reale Konsequenzen – rechtlich, wirtschaftlich und ethisch. Wer KI einsetzen will, um Prozesse zu steuern, braucht mehr als Intelligenz im Sinne der Textgenerierung. Es braucht Entscheidungsfähigkeit – und zwar unter Berücksichtigung von Regeln, Normen und Kontextwissen.
Warum LLMs und Agenten allein keine sichere Handlungsfähigkeit garantieren
Sprachmodelle wie GPT, Claude oder Mistral sind beeindruckend. Doch ihr Fundament bleibt stochastisch: Sie operieren auf Basis statistischer Wahrscheinlichkeiten – nicht auf Grundlage strukturierter Logik oder methodischer Urteilskraft. Sie können nicht zuverlässig prüfen, ob eine bestimmte Handlung in einem gegebenen Kontext erlaubt ist. Sie können vorschlagen, imitieren, extrapolieren – aber nicht normativ entscheiden.
Auch agentenbasierte Systeme, die mit LLMs gesteuert werden, zeigen ein ähnliches Problem: Sie operieren in Schleifen, beobachten ihre Umgebung, planen nächste Schritte. Doch diese Schritte beruhen weiterhin auf stochastischen
Wahrscheinlichkeiten – nicht auf einer strukturierten Prüfung von Gegebenheiten und Beschränkungen. Das kann zu driftenden Verhalten führen: schon geringfügige Abweichungen der Eingabe, des Kontexts oder dem Modellzustand können zu unvorhersehbaren oder unerwünschten Handlungen führen. In sicherheitskritischen Kontexten – etwa in der Verwaltung, Industrie, Medizin oder Energieversorgung – ist das inakzeptabel.
Kurz: Es fehlt eine Instanz, die Handlungen explizit auf ihre Zulässigkeit prüft – bevor sie ausgeführt werden.
Entscheidungs-KI als Steuerungseinheit für Handlungs-KI
Die Lösung liegt in einer Trennung – und zugleich der strategischen Verbindung zweier KI-Funktionen: Entscheidung und Handlung. Handlungsfähige KI – etwa in Form von Agenten – sollte nicht autonom entscheiden, was sie darf. Stattdessen braucht es eine dedizierte Entscheidungs-KI, die als vorgelagerte Kontrollinstanz agiert. Nur Handlungen, die diese Instanz als zulässig bewertet, dürfen ausgeführt werden.
Mit e1 stellen wir eine solche Entscheidungs-KI vor: Sie verfügt über deduktive Denkfähigkeiten und kann Regeln, Vorschriften und Kontextinformationen systematisch anwenden, um Entscheidungen nachprüfbar und absicherbar zu treffen. Anders als LLMs basiert e1 nicht auf Wahrscheinlichkeiten, sondern auf logisch strukturiertem Reasoning – auch mit unvollständigem Wissen. Damit wird sie zur zentralen Steuerungseinheit in agentischen Systemen.
Wie e1 sichere Handlungsfähigkeit ermöglicht
e1 prüft Handlungsabsichten nicht nur syntaktisch oder semantisch, sondern logisch und normativ. Ein Beispiel: Ein KI-Agent möchte eine Rechnung freigeben. e1 prüft anhand vordefinierter Regeln (z. B. Budgetrahmen, Vier-Augen-Prinzip, Lieferantenstatus), ob diese Handlung in der konkreten Situation erlaubt ist. Nur wenn alle Bedingungen erfüllt sind, gibt e1 die Freigabe. Andernfalls wird sie verweigert oder an eine menschliche Instanz eskaliert.
Diese Architektur hat mehrere Vorteile:
- Vorbeugung statt Korrektur: Handlungen werden vor der Ausführung geprüft, nicht erst im Nachhinein bewertet.
- Regeltransparenz: Entscheidungen sind nachvollziehbar, da sie aus expliziten Regeln abgeleitet werden.
- Systematische Absicherung: Auch bei sich verändernden Modellen oder Kontexten bleibt die normative Kontrolle konstant.
- Auditfähigkeit: Jede Entscheidung kann dokumentiert und später überprüft werden – ein entscheidender Faktor für Compliance und Governance.
Damit stellt e1 die logische Instanz bereit, die das Agentenverhalten in normativer Spur hält. Es entsteht ein KI-System, das nicht nur intelligent, sondern auch kontrollierbar und vertrauenswürdig ist.
Der Weg zu vertrauenswürdiger Autonomie
Wer KI-Systeme autonom handeln lässt, ohne eine vorgelagerte Entscheidungslogik zu integrieren, riskiert Unberechenbarkeit. Sprachmodelle und Agenten sind mächtig – aber nicht normativ verlässlich. Der Schlüssel zu vertrauenswürdiger, abgesicherter KI-Nutzung liegt in der strukturierten Kombination von Entscheidungs- und Handlungsfähigkeiten.
e1 steht dabei für einen Paradigmenwechsel: von der probabilistischen Output-Generierung hin zur normativ geprüften Aktion. Nicht jede denkbare Handlung wird erlaubt – sondern nur jene, die sich aus Regeln, Kontext und Zielsetzung deduktiv ableiten lassen.
In einer Zeit, in der KI in gesellschaftliche, rechtliche und wirtschaftliche Prozesse eingebettet wird, ist diese Steuerungsfähigkeit keine Option.Sie ist notwendig – strategisch wie operativ.