IQONEX
API & Integrationen

DSGVO-konforme KI direkt in Ihren Systemen.

Wir verkabeln Azure OpenAI, Claude und Mistral mit DATEV, CRM, Case-Management und Praxis-Software. Mitarbeiter wechseln nicht zwischen Tools — die KI ist da, wo sie arbeiten.

API & Integrationen

API-Integrationen statt SaaS-Copy-Paste

Eine SaaS-Plattform wie Logicc liefert eine schöne UI — Ihre Mitarbeiter müssen aber zwischen ihrem Arbeits-Tool und dem AI-Tool wechseln, kopieren hin und her, und die Compliance-Architektur gehört dem Anbieter. Wir bauen die KI in Ihre bestehenden Systeme ein. Mitarbeiter sehen die KI-Funktion dort, wo sie eh schon arbeiten. Der Compliance-Layer ist Ihrer.

Kurz und ehrlich

  • SaaS-Plattformen verkaufen eine UI — wir bauen KI direkt in eure Systeme. Mitarbeiter sehen die KI-Funktion dort, wo sie eh arbeiten.
  • Standard-Architektur: Azure OpenAI in EU-Region, Pseudonymisierung pro Aufruf, Audit-Log, Entra-ID-Auth.
  • Pilot-Endpoint produktiv in 4–8 Wochen. Architektur-Sprint zuerst, dann Implementation, dann Härtung.
  • Übergabe an eure IT mit Runbooks oder laufender Betrieb durch uns — Sie entscheiden.

Warum API-Integration statt SaaS-UI

Drei Konflikte, die wir bei jedem Kunden sehen, der mit einer SaaS-AI-Plattform anfängt:

  • Workflow-Bruch: Mandantendaten leben im Case-Management oder DATEV. Mitarbeiter müssen Daten herauskopieren, in die SaaS-UI pasten, Antwort zurückkopieren — drei Sprünge zwischen Tools, jeder eine Fehlerquelle.
  • Compliance-Architektur ist nicht eure: Pseudonymisierung, Audit-Log und Schlüssel-Rotation gehören dem SaaS-Anbieter. Bei einer Aufsichtsprüfung müssen Sie sich auf deren Doku verlassen — und sich von deren Subprocessor-Liste abhängig machen.
  • Adoption-Knick: 30% der Mitarbeiter, die ChatGPT privat nutzen, switchen nicht freiwillig auf eine offizielle SaaS-UI mit weniger Features. KI im eigenen Tool sehen sie dagegen automatisch, ohne neue Logins, ohne neuen Habit.

Was wir konkret bauen

  • Pseudonymisierungs-Layer vor jedem Modell-Aufruf. Direkte Personenbezüge (Name, Adresse, Aktenzeichen) werden lokal durch Tokens ersetzt. Re-Identifikation passiert nach Modell-Antwort — auf Ihrer Seite. Das Mapping verlässt Ihren Verantwortungsbereich nie.
  • Azure-OpenAI-Wrapper mit Audit-Log. Jeder Aufruf wird mit User, Zeitpunkt, verwendetem Modell und Pseudonym-Hash protokolliert. Bei Streit oder Aufsichtsprüfung reproduzierbar.
  • Webhook-Pattern für asynchrone Workflows: Mailbox-Trigger → Pseudonym-Ersetzung → Modell-Aufruf → strukturierter Output → Re-Identifikation → Workflow weiter.
  • Custom-Endpoints für Branchen-Software (DATEV-API, Praxis-Verwaltungs-Systeme, Case-Management-Tools wie Advoware oder RA-Micro). Wir kennen die Schnittstellen.
  • OpenAPI-Spec + dünner SDK-Layer (TypeScript, Python, optional .NET) — committed in Ihr Repo, gewartet von Ihrem Team oder uns.

Beispiel-Architekturen

BrancheQuellsystemAI-EndpointOutcome
SteuerkanzleiDATEV (Belegbilder)POST /classify-receipt → AI strukturiert, Output als Buchungs-VorschlagBelegerfassung 60% schneller, Rück-Korrekturen halbiert
AnwaltskanzleiCase-Management (Advoware/RA-Micro)POST /draft-letter → Pseudonymisierter Schriftsatz-Entwurf, Anwalt reviewtRoutine-Schriftsätze 30–50% schneller, Audit-Log pro Versand
ArztpraxisPraxis-Verwaltungs-SystemPOST /anamnesis-summary → Bullet-Points für Arzt, Roh-Daten bleiben im PVS5–10 Minuten pro Erstgespräch, kein §203-Risiko

Unsere Methodik (4 Schritte)

  1. Architektur-Sprint (1–2 Wochen): Wir analysieren euer Quellsystem, definieren Endpoints, klären Auth + Compliance, liefern ein Architektur-Dokument mit Threat-Model.
  2. Pilot-Endpoint (2–4 Wochen): Ein Use-Case end-to-end implementiert, mit Pseudonymisierung, Audit-Log und Test-Daten. Läuft in eurer Staging-Umgebung.
  3. Härtung (1–2 Wochen): Last-Tests, Quota-Management, Error-Handling, Monitoring-Dashboards. Verträge: AVV, TOMs, Subprocessor-Liste.
  4. Übergabe oder Betrieb: Entweder Hand-over an eure IT mit Runbooks und Schulung, oder wir betreiben weiter (siehe unten).

Technologie-Stack

  • Modelle: Azure OpenAI in EU-Region (GPT-4o, GPT-5, o-Series). Optional Claude via Bedrock EU für lange Kontexte. Mistral on-prem für maximale Datenresidenz.
  • Auth: Microsoft Entra ID mit Managed Identities. Keine API-Keys im Code.
  • Hosting: Hetzner Falkenstein, Upsun Frankfurt, Azure Frankfurt. Niemals US-Fallback.
  • Sprachen: TypeScript/Node, Python, optional C#/.NET (für DATEV-/Branchen-Integrationen).
  • Logging: Azure Monitor + optional Sentry. Alle Logs EU-resident.

Übergabe oder Betrieb

Nach dem Pilot habt ihr zwei Optionen. Option A: Übergabe an eure IT mit kompletten Runbooks (Deployment, Restore, Monitoring, Incident-Response) und einer 2-tägigen Schulung. Vorausgesetzt, eure IT hat Kapazität für laufende Compliance-Pflege.

Option B: Wir betreiben weiter — Monitoring, Quota-Management, Modell-Updates, Sicherheits-Patches, Compliance-Refresh bei regulatorischen Änderungen. Klassisches Managed-Service-Modell mit monatlichem Status-Report. Bei Kanzleien, Praxen und KRITIS-Operatoren ist das der Default.

Bereit für ein Erstgespräch?

30 Minuten, kostenlos, unverbindlich. Wir hören uns Ihren Fall an und sagen ehrlich, ob und wie wir helfen können.

Häufige Fragen zu API-Integrationen

Was unterscheidet euch von SaaS-Plattformen wie Logicc oder ähnlichen?

SaaS-Plattformen verkaufen eine UI: Mitarbeiter wechseln zwischen ihrem Arbeits-Tool und dem AI-Tool, kopieren hin und her. Wir bauen die KI direkt in eure bestehenden Systeme ein — DATEV, Case-Management-Software, Praxis-Verwaltungs-System, CRM. Mitarbeiter sehen die KI-Funktion dort, wo sie eh schon arbeiten. Plus: euer Compliance-Layer ist eurer, nicht der eines Drittanbieters.

Welche Authentifizierung nutzen wir typischerweise?

Microsoft Entra ID (ehemals Azure AD) mit Managed Identities — keine API-Keys im Code. Alternativ OAuth2 mit Conditional Access, falls eure Identitäts-Infrastruktur das schon liefert. Bei Branchen-Software ohne Entra-ID-Anbindung: Service-Principal mit rotierenden Secrets im Key Vault. Wir entscheiden nach eurem Stack.

Welche Sprachen für SDKs liefert ihr?

TypeScript/Node und Python sind Standard. C#/.NET liefern wir bei Bedarf — viele DATEV- oder Branchen-Software-Integrationen sind .NET. Java auf Anfrage. SDKs sind dünne Wrapper um die zugrundeliegende Architektur, kein NPM-Public-Package — sondern in eurem Repo committed und maintained.

Wie lange dauert ein Pilot-Endpoint typischerweise?

4–8 Wochen vom Architektur-Sprint zum produktiv laufenden Endpoint. Architektur-Sprint 1–2 Wochen, Implementation 2–4 Wochen, Härtung & Audit-Log 1–2 Wochen. Die Variable ist meist die Anbindung an euer Quellsystem — DATEV-API ist gut dokumentiert, manche PVS-Hersteller weniger.

Was passiert nach Übergabe? Müssen wir alles selbst betreiben?

Zwei Modelle: Übergabe an eure IT mit Runbooks und Schulung, oder wir betreiben weiter (Monitoring, Quota, Updates der Modelle, Sicherheits-Patches). Bei regulierten Branchen wählen die meisten Kunden Variante zwei, weil Compliance-Pflege ein eigener Skill ist.

Wie unterscheidet sich Pseudonymisierung-Layer von Logiccs §203-Verschlüsselung?

Logicc verschlüsselt vor dem Modell-Aufruf — mit eigener Architektur. Wir bauen Pseudonymisierung als generischen Layer, der eurem Workflow folgt: Mandantenname → Token vor Modell, Re-Identifikation lokal nach Antwort. Das Mapping liegt bei euch, nie bei uns. So bleibt der §203-Status auch im Streitfall reproduzierbar.

Können wir mehrere Modelle (OpenAI, Claude, Mistral) parallel anbinden?

Ja. Unsere API-Wrapper sind modell-agnostisch — der Endpoint sieht für eure Anwendung gleich aus, das Backend routed auf das richtige Modell pro Use-Case. Praxis-Empfehlung: Azure OpenAI als Default für regulierte Workloads, Claude (via Bedrock EU) für lange Kontexte, Mistral on-prem für maximale Datenresidenz.

API-Pilot besprechen

30 Minuten Erstgespräch — Sie schildern euer Setup und den Workflow, wir skizzieren die Architektur und nennen einen realistischen Pilot-Zeitrahmen. Schriftliches Angebot folgt im Anschluss.