Your company is growing, but your software can't keep up?

We modernize running systems. Zero downtime. Zero risk.

Strategic Initial Consultation (Audit)

System Audit & Risk Analysis - starting from €1,500 excl. VAT.

Every sustainable system evolution commences with a precise baseline audit. We conduct a forensic analysis of your software architecture, identify technical debt, and evaluate scaling risks. The scope of the analysis is individually tailored to the complexity of your infrastructure.

\"The Outcome: A comprehensive Technical Assessment of your organization's current technological state. This analysis provides the essential data foundation for every informed strategic decision and future roadmap planning.\"

Request Technical Assessment

The cost of the initial audit will be proportionally credited toward the subsequent modernization project commission.

Evolution of Computing: Sinclair ZX Spectrum and NVIDIA DGX Spark
Lab Status: Live-Updates
2026-04-01Erfolgreiche Integration der Blackwell-Inferenz-Benchmarks.
2026-03-30PostgreSQL-Cluster auf Version 16 stabilisiert.
01 / Team

System Depth Meets Data Expertise

We combine decades of experience in system integration with modern data and AI platform expertise. From legacy systems to productive AI applications – we build robust solutions for real business processes.

Peter Gesierich

Founder & Lead Architect

40+ years of software development – from punch card systems and the Sinclair ZX Spectrum to NVIDIA DGX Spark infrastructure and cloud-native architectures. Specialist in system integration, pragmatic AI orchestration, and SEO engineering. Focus on future-proof solutions that can be modernized during live operation – without risk, without downtime. Combination of technical depth, business reality, and decades of problem-solving experience. Authorized Signatory at WE Studio Media GmbH (photo/film studios Berlin). Own NVIDIA DGX infrastructure for local AI development.

David Reger

DATA & AI PLATFORM ENGINEER

Specialist for data platforms, AI integrations, and scalable system architectures. Focus on building the data foundation for productive AI applications – from data integration and RAG systems to agentic workflows. Expertise in Python (FastAPI, SQLAlchemy), SQL/database engines, Apache Spark, Kubernetes, and modern data stacks. Experience with web scraping, PDF parsing, ERP integrations, semantic search, and event-driven architectures. Technical focus: Lakehouse platforms, streaming systems, data processing, LLM orchestration, and production-ready AI deployments. From data sourcing to the robust deployment of AI-enabled services.

02 / Strategie

Our 5-Phase Modernisation Model

[01]

Phase 1 – Visibility & Security

Mapping the system landscape, processes, and dependencies. Establishing monitoring and blue-green deployment strategies to ensure every change remains reversible.

[02]

Phase 2 – Modularise, Don't Destroy

Structuring existing code into a "Modular Monolith". Introducing clean APIs between modules instead of "Wild West" data access.

[03]

Phase 3 – Strangler Approach & Facade Architecture

Implementing the Strangler Fig Pattern: New features are built externally, legacy endpoints are replaced incrementally without users noticing the transition.

[04]

Phase 4 – Data Migration Without Shock

Utilising techniques like Change Data Capture and read replicas. Parallel operation of old and new data paths with constant validation.

[05]

Phase 5 – Decommission & Cleanup

Targeted shutdown of legacy components and removal of dead code. Handover of a lean, modern core system to your team.

03 / Tech

Technologische Exzellenz – vom Backend bis zur AI-Infrastruktur

[01]

Backend & APIs: Python (FastAPI, SQLAlchemy, Pydantic), Node.js (Next.js, Express), RESTful APIs, GraphQL, WebSockets für Echtzeit-Integration.

[02]

AI & LLM: RAG-Pipelines, agentische Workflows, Multi-Model-Orchestrierung (OpenAI, Anthropic, lokale LLMs via Ollama), LiteLLM Gateway, semantische Suche, Embeddings.

[03]

Daten & Integration: Apache Spark, Lakehouse-Architekturen, Web-Scraping (Playwright, BeautifulSoup), PDF-Parsing, ERP/CRM-Integration, Event-Streaming (Kafka).

[04]

Frontend & SEO: Next.js 13+ (App Router, Server Components), React, Tailwind CSS, technisches SEO (100% Scores), strukturierte Daten, Core Web Vitals-Optimierung.

[05]

DevOps & Infra: Docker, Kubernetes, CI/CD (GitHub Actions), Ubuntu Server, Caddy Reverse Proxy, Systemd, Monitoring, NVIDIA DGX für lokale AI-Workloads.

Lab Reports: Insights into Our Engineering Practice

Optimization of Inference Latency on NVIDIA Blackwell (GB10)

Bei der Modernisierung komplexer Industriesysteme stoßen wir oft auf ein Problem: Die Latenz. Ein System, das seit 30 Jahren stabil läuft, darf durch die Einführung von KI-Modulen nicht ausgebremst werden. In unserem Lab in Berlin-Lichtenberg analysieren wir daher die Performance-Vorteile der NVIDIA Blackwell Architektur (GB10) im Vergleich zur Vorgängergeneration. Das Setup: Unser DGX Spark dient als Benchmark-Plattform. Wir nutzen einen Stack aus Ubuntu 24.04 LTS, CUDA 13.0 und PyTorch 2.3. Das Ziel ist die Minimierung der Time-To-First-Token (TTFT) bei Modellen mit 70 Milliarden Parametern. Die technische Herausforderung: Standard-Virtualisierung in der Cloud führt oft zu 'Jitter' in der Speicherbandbreite. Auf unserer lokalen Hardware implementieren wir eine strikte VRAM-Partitionierung. Durch den Einsatz von FP16-Quantisierung und die direkte Anbindung über NVLink erreichen wir eine konstante Inferenz-Geschwindigkeit von 42 Tokens pro Sekunde bei einer Chiptemperatur von stabilen 62°C unter Volllast. Dies ist nur möglich, weil wir die Inferenz-Engine (vLLM) direkt auf die Hardware-Register der GB10-Kerne kalibrieren. Warum das für den Mittelstand zählt: Viele Unternehmen zögern bei der KI-Integration, weil sie ihre Daten nicht in öffentliche Clouds schicken wollen. Unser Ansatz der 'lokalen High-Performance Compute Ressourcen' erlaubt es, Inferenz-Pipelines direkt im lokalen Netzwerk des Kunden (On-Premise) oder in unserem abgesicherten Berliner Lab laufen zu lassen. Wir nutzen dafür FastAPI als asynchrone Schnittstelle, die Anfragen in Millisekunden validiert und an die GPU-Worker weiterreicht.

Zero-Downtime Migration: From Legacy SQL to PostgreSQL

In der Praxis der Software-Evolution ist die Datenbank-Migration die riskanteste Operation. Auf unserem DGX Spark simulieren wir komplexe Migrationsszenarien mittels PostgreSQL 16 und SQLAlchemy 2.0. Ein Kernproblem bei Legacy-Systemen ist die mangelnde Konsistenz der Datenmodelle. Oft finden wir gewachsene Strukturen vor, die keine Fremdschlüssel-Integrität besitzen. Unsere Strategie basiert auf dem Einsatz von Read-Replicas und Change-Data-Capture (CDC). Hierbei spiegeln wir die alte Datenbank in Echtzeit auf ein neues Schema. Wir nutzen Python-basierte Validierungs-Skripte, die jeden Datensatz auf dem NVIDIA-Cluster gegen das Zielschema prüfen. Durch den Einsatz von asynchronen Migrations-Pipelines können wir Terabytes an Daten transformieren, während das Frontend weiterhin auf den alten Stand zugreift. Erst wenn die Integrität auf dem Spark-Cluster zu 100% verifiziert ist, schalten wir die Schreibzugriffe im laufenden Betrieb um (Atomic Switch). Dies minimiert nicht nur das Fehlerrisiko, sondern eliminiert die berüchtigten Wartungsfenster, die im modernen E-Commerce oder bei industriellen Prozessen nicht mehr tragbar sind.

Scalable High-Concurrency Backends with Python

Bei der Modernisierung von Altsystemen stoßen wir oft auf synchrone Blockaden. Alte PHP- oder Java-Monolithen verarbeiten Anfragen oft nacheinander (Blocking I/O). In unserem Berliner Lab implementieren wir konsequent asynchrone Architekturen auf Basis von Python 3.12 und dem FastAPI Framework. Der Einsatz von ASGI (Asynchronous Server Gateway Interface) ermöglicht es uns, I/O-intensive Aufgaben – wie Datenbankabfragen oder KI-Inferenz-Aufrufe – parallel zu verarbeiten, ohne den Haupt-Thread zu blockieren. Auf unserem NVIDIA DGX Spark optimieren wir dies durch eine strikte Thread-Isolierung. Wir nutzen Worker-Pools, die speziell auf die ARM-Architektur des Blackwell-Systems abgestimmt sind. Ein besonderes Augenmerk liegt auf der Middleware-Orchestrierung. Wir setzen Caddy als Reverse Proxy ein, um TLS-Terminierung und HTTP/3-Unterstützung direkt am Edge zu kapseln. Dies entlastet das Python-Backend massiv. Durch die Kombination von Caddy und FastAPI erreichen wir Antwortzeiten im niedrigen zweistelligen Millisekundenbereich, selbst wenn im Hintergrund komplexe Logik-Operationen laufen.

Ready for the Future?

Project description (No initial phone contact, please)