Unser zentrales Credo:
der Skalierungspfad starker KI wird nicht länger über die Größe von Modellen (samt immensem Ressourcen-Einsatz für deren Training) bestimmt, sondern über die Leistungsfähigkeit kognitiver Architekturen in intelligenten Systemen.
Wir sehen uns als Vordenker und Vorreiter dieses Trends und erschaffen eigene IP auf Grundlagen-Ebene, um diesen innovativen Pfad aus eigener Kraft — d.h. ohne jegliche Abhängigkeiten von Dritten — zu beschreiten und mit zu prägen. Regulatorik sehen wir dabei nicht als Hindernis, sondern als Ansporn.
Wir erschaffen eigene Basis-Technologien, um unser Versprechen von strategischer Eigenständigkeit einzulösen: unsere Reasoning Engine bildet das strukturelle Rückgrat, um aus vergleichsweise einfachen Sprachmodellen starke und kontrollierbare KI-Systeme zu machen. Prinzipiell bevorzugen wir Vanilla Modelle. Gleichzeitig können wir mit SynthIOS unsere eigenen, veredelten Trainingsdaten erzeugen und dank LoRA-Finetuning auf Open Weight Foundation Modelle anwenden.
Abgesehen von eigenen Foundation Modellen (für deren Training wir derzeit keine strategische Notwendigkeit sehen) haben wir damit alle wesentlichen Kern-Assets inhouse, um einen eigenen Skalierungspfad für Starke KI zu beschreiten.
Um Denk- und Handlungs-KI strategisch kontrollierbar zu machen, haben wir ihre grundlegende Architektur neu gedacht — nicht in Modellen, sondern in Systemen. Dazu stellen wir Sprachmodellen mit unserer eigenständigen Reasoning Engine einen Gegenspieler an die Seite, der die Hypothesen des Sprachmodells zerlegt, analysiert und überprüft. Im Ergebnis entstehen logisch nachvollziehbare und begründete Schlussfolgerungen, die als Grundlage belastbarer Entscheidungen dienen.
Die Qualität von Trainings-Daten hat einen maßgeblichen Einfluss auf das Verhalten von KI-Systemen. Statt uns auf externe Quellen zu verlassen, erzeugen wir mit unserer Open-Source-Pipeline SynthIOS unsere eigenen hochqualitativen Trainingsdaten. So stellen wir sicher, dass die hinterlegten Modelle auf der bestmöglichen und relevantesten Wissensbasis operieren und frei von unerwünschten Verzerrungen sind. Wir entwickeln unsere Daten-Pipelines kontinuierlich weiter.
Eine kontrollierbare Architektur verdient eine präzise Sprache. Damit unsere Systeme nicht nur logisch korrekt, sondern auch in Ihrer spezifischen Domäne exzellent kommunizieren, passen wir Open-Weight-Sprachmodelle mit LoRA (Low-Rank Adaptation) an. Diese effiziente Methode erlaubt es uns, die sprachlichen Fähigkeiten unserer Systeme gezielt zu verfeinern – schneller, ressourcenschonender und exakt auf Ihre Domäne & Bedürfnisse zugeschnitten.
Um Denk- und Handlungs-KI strategisch kontrollierbar zu machen, haben wir ihre grundlegende Architektur neu gedacht — nicht in Modellen, sondern in Systemen. Dazu stellen wir Sprachmodellen mit unserer eigenständigen Reasoning Engine einen Gegenspieler an die Seite, der die Hypothesen des Sprachmodells zerlegt, analysiert und überprüft. Im Ergebnis entstehen logisch nachvollziehbare und begründete Schlussfolgerungen, die als Grundlage belastbarer Entscheidungen dienen.
Die Qualität von Trainings-Daten hat einen maßgeblichen Einfluss auf das Verhalten von KI-Systemen. Statt uns auf externe Quellen zu verlassen, erzeugen wir mit unserer Open-Source-Pipeline SynthIOS unsere eigenen hochqualitativen Trainingsdaten. So stellen wir sicher, dass die hinterlegten Modelle auf der bestmöglichen und relevantesten Wissensbasis operieren und frei von unerwünschten Verzerrungen sind. Wir entwickeln unsere Daten-Pipelines kontinuierlich weiter.
Diese drei Säulen – eine revolutionäre Architektur, souveräne Datengenerierung und die Möglichkeit für präzises & effizientes Finetuning – sind mehr als nur eine Sammlung von Einzel-Bausteinen: sie fügen sich zu einer nahtlosen Wertschöpfungskette für die künftige Skalierung von KI zusammen. Der volle Zugriff auf diese strategischen Werkzeuge versetzt uns in die Lage, aus eigener Kraft heraus KI-Systeme zu entwickeln, die nicht nur leistungsstark, sondern von Grund auf transparent, sicher und auf Ihre Bedürfnisse zugeschnitten sind — ohne jeglichen technologischen Abhängigkeiten von Dritten. In geopolitisch bewegten Zeiten ein wichtiger Aspekt der Eigenständigkeit.
Um unsere Mission weiter voranzutreiben, arbeiten wir gezielt an der Optimierung der zentralen Stellschrauben. Damit verschieben wir die Grenzen des Machbaren, ohne dabei die Sicherheit und Zuverlässigkeit aus den Augen zu verlieren.
Die Leistungsfähigkeit unserer Reasoning Engine wird durch die Qualität ihrer Reasoning-Schemata bestimmt. Unser Ziel ist es, diese Schemata kontinuierlich zu verbessern und für komplexeste logische Herausforderungen zu optimieren. Wir forschen daran, wie wir noch anspruchsvollere Denkprozesse abbilden und die kognitive Leistung unserer Systeme konsequent zu steigern.
Wahre Souveränität bedeutet, starke KI dort nutzen zu können, wo sie gebraucht wird – auch auf ressourcenschonender Low-End-Hardware. Wir forschen an Methoden, um anspruchsvolle KI-Modelle auf solchen „Low-Profile“-Umgebungen hocheffizient zu betreiben. Dies maximiert nicht nur Ihre Unabhängigkeit, sondern ermöglicht auch völlig neue Anwendungsfälle direkt am Ort des Geschehens.
Die Fähigkeit eines LLMs, große Mengen an Informationen zu verarbeiten, wird durch sein Kontextfenster definiert. Wir forschen an innovativen Methoden, dieses Fenster signifikant zu erweitern. Damit erweitern wir gezielt die Fähigkeiten von EU AI Act konformen Open-Source Modellen, um diese für den Business-Einsatz verwend- & anpassbar zu machen.
Unsere Forschungsagenda verfolgt ein klares, strategisches Ziel: wir machen kontrollierbare KI intelligenter, zugänglicher und leistungsfähiger. Indem wir die Denkfähigkeit der Architektur vertiefen, ihre Effizienz auf jeder Hardware maximieren und die Fähigkeiten konformer Open-Source-Modelle gezielt erweitern, gestalten wir aktiv die nächste Generation souveräner KI-Systeme.
So stellen wir sicher, dass unsere Technologie nicht nur heute führend ist, sondern auch morgen die Standards für vertrauenswürdige künstliche Intelligenz setzt.