Eigene Anwendungen auf derselben Infrastruktur.
Atlas, Socius und Chronos sind Module — gebaut auf einem SDK, das auch Ihrem Team offensteht. Eigene Anwendungen erben Souveränität, Ontologie, Audit-Trail und Erklärbarkeit automatisch. Kein Fork, keine Parallelinfrastruktur.
Fünf Primitive, mit denen Sie alles bauen.
Dieselben Bausteine, mit denen wir Atlas, Socius und Chronos gebaut haben — dokumentiert, versioniert, für Ihre Teams nutzbar.
Beliebige Quelle anbinden
Adapter-Pattern für REST, gRPC, S3, OPC-UA, GIS, Datenbanken. Ihre Konnektoren sind first-class — keine Sonderrolle gegenüber den eingebauten.
Pipelines deklarativ
Quelle → Inferenz → Ontologie → Output, als Code. Versionierbar, testbar, reproduzierbar — vom Notebook bis in den Regelbetrieb.
Eigene Modelle einklinken
Eigene ML-Modelle in der Cortex-Registry registrieren — mit Confidence-Tracking, Versionierung und Audit-Trail wie eingebaute Modelle.
Domäne erweitern
Eigene Konzepte (Akteur-Subtypen, Ereignisse, Beziehungen) zur gemeinsamen Ontologie hinzufügen — anschlussfähig an Atlas/Socius/Chronos.
Oberflächen, die zu Makor passen
Komponenten für Karten, Graphen, Zeitreihen, Audit-Anzeigen. Sie bauen Oberflächen für Ihre Workflows, nicht für unsere.
Same Infrastructure
Custom-Anwendungen laufen auf derselben on-prem/private-cloud-Infrastruktur wie die Module. Kein zweiter Stack, keine zweite Audit-Pipeline.
// Custom connector — bind any source to Axis from makor.sdk import Connector, Flux, Cortex class RadarFeed(Connector): schema = "axis://radar.v1" def stream(self): yield from self.poll(interval="5s") // Compose pipeline → Kontinuum pipeline = (Flux("radar.lagebild") .source(RadarFeed()) .infer(Cortex.model("anomaly.v3")) .annotate(ontology="verkehr") .publish("lagebild.verkehr.tiles")) pipeline.deploy(env="on-prem", audit=True)
Ein Connector, eine Pipeline, ein Modell — fertig ist eine Custom-Anwendung mit Audit-Trail und Erklärbarkeit. Schematisch.
Was Teams selbst bauen.
Ihre Domäne hat Begriffe, die kein Standardmodul kennt. Sie modellieren sie in der Ontologie und bauen die Oberfläche, die Ihr Team wirklich braucht.
Ihr Forschungsteam hat ein Modell, das niemand sonst hat. Sie binden es als Cortex-Modell ein — mit derselben Audit-Pipeline wie eingebaute Modelle.
Wiederkehrende Auswerte- und Freigabeprozesse als Flux-Pipelines abbilden — versionierbar, testbar, mit Audit-Trail pro Lauf.
Datenprodukte für andere Fachbereiche bauen, ohne ein Datenwarenhaus zu fordern — Ergebnisse als API, Tile-Service oder Notebook-Output.
Ihr Team baut. Wir liefern das Rückgrat.
Im Pilot bekommen Ihre Engineers SDK-Zugang, Schulung und Pair-Sessions mit unserem Team. Sie behalten Code, Daten und Audit-Logs.