Skip to content
Hinter den Kulissen

Wie unsere KI wirklich funktioniert

Jedes KI-Feature auf dieser Website wird von echter AWS-Infrastruktur angetrieben. Erkunden Sie die Architektur, Services und technischen Abläufe hinter jedem einzelnen.

AI Playground

Beschreiben. Zusehen. Fertig.

Geben Sie eine Beschreibung einer beliebigen UI-Komponente ein und sehen Sie zu, wie KI produktionsreifes HTML + Tailwind CSS in Echtzeit generiert. Unterstützt mehrstufige Konversationen zum Verfeinern und Iterieren Ihrer Komponente.

Try it

How It Works

Ihr Prompt wird an einen API-Gateway-Endpunkt gesendet, der von einer Lambda-Funktion unterstützt wird. Das Lambda ruft Amazon Bedrock mit Claude auf und streamt Tokens über eine Chunked-HTTP-Response zurück. Das Frontend rendert jeden Chunk in Echtzeit in ein Live-Preview-Iframe.

Technical Flow

01

Benutzer gibt eine Komponentenbeschreibung im Browser ein

02

Anfrage trifft auf API Gateway mit Rate Limiting (10/Tag pro IP)

03

Lambda erstellt einen System-Prompt, optimiert für HTML/Tailwind-Generierung

04

Amazon Bedrock streamt Claudes Antwort Token für Token

05

Frontend rendert jeden Chunk in ein Sandbox-Iframe in Echtzeit

06

Konversationsverlauf wird client-seitig für mehrstufige Verfeinerung gespeichert

AWS Services

Amazon Bedrock
LLM-Inferenz mit Claude
AWS Lambda
Serverloser Anfragen-Handler
API Gateway
REST-Endpunkt mit Throttling
CloudWatch
Logging und Monitoring
Tech-Stack-Berater

Projekt beschreiben. Stack erhalten.

Beschreiben Sie Ihre Projektanforderungen und erhalten Sie KI-gestützte Architekturempfehlungen mit komplettem Tech-Stack, Begründung und einem Mermaid-Architekturdiagramm. Stellen Sie Rückfragen, um die Empfehlungen zu verfeinern.

Try it

How It Works

Die Lambda-Funktion sendet Ihre Projektbeschreibung über Bedrock an Claude mit einem spezialisierten System-Prompt, der das Modell anweist, Anforderungen zu analysieren, Technologien zu empfehlen und ein Mermaid-Diagramm zu generieren. Antworten werden mit einem speziellen Marker-Format für den Diagramm-Abschnitt zurückgestreamt.

Technical Flow

01

Benutzer beschreibt seine Projektanforderungen

02

Lambda sendet den Prompt mit architektur-fokussierten System-Instruktionen an Bedrock

03

Claude analysiert Anforderungen und generiert strukturierte Empfehlungen

04

Antwort enthält ein Mermaid-Diagramm zwischen ---DIAGRAM--- Markern

05

Frontend rendert Markdown-Empfehlungen und lädt Mermaid.js für das Diagramm

06

Rückfragen behalten den Konversationskontext für tiefere Analyse bei

AWS Services

Amazon Bedrock
Architekturanalyse mit Claude
AWS Lambda
Prompt-Orchestrierung
API Gateway
REST-Endpunkt mit Rate Limiting
CloudWatch
Anfragen-Logging
KI-Agenten-Visualisierer

KI beim Denken zusehen — Schritt für Schritt.

Wählen Sie ein Szenario (Code-Review, Datenanalyse, Deployment, Bug-Fix) und beobachten Sie, wie ein KI-Agent das Problem aufschlüsselt, eine Lösung plant, Schritte ausführt und Ergebnisse verifiziert — alles live gestreamt in eine Terminal-ähnliche Oberfläche.

Try it

How It Works

Das Lambda empfängt eine Szenario-ID, konstruiert eine mehrstufige Prompt-Kette und ruft Bedrock für jede Agentenphase auf (Denken → Planen → Ausführen → Verifizieren → Ergebnis). Die Ausgabe jeder Phase wird als Newline-delimited JSON gestreamt, wobei das Frontend die Pipeline-Visualisierung in Echtzeit aktualisiert.

Technical Flow

01

Benutzer wählt ein vordefiniertes Szenario (z.B. 'Code-Review')

02

Lambda empfängt das Szenario und initiiert eine mehrphasige Prompt-Kette

03

Jede Phase (Denken, Planen, Ausführen, Verifizieren, Ergebnis) ruft Bedrock unabhängig auf

04

Antworten werden als NDJSON mit Schritt-Metadaten gestreamt

05

Frontend hebt den aktiven Pipeline-Schritt hervor und fügt Terminal-Ausgabe an

06

Rate Limiting verfolgt die tägliche Nutzung pro IP

AWS Services

Amazon Bedrock
Mehrstufiges Agenten-Reasoning
AWS Lambda
Agenten-Orchestrierung
API Gateway
Streaming-Endpunkt
CloudWatch
Schritt-Level-Tracing
KI-Chat-Assistent

Fragen Sie alles über creative-it.

Ein schwebendes Chat-Widget, das Fragen zu den Dienstleistungen, Prozessen, dem Team und den Fähigkeiten von creative-it beantwortet. Hält den Session-Kontext für natürliche Folgekonversationen mit Streaming-Antworten aufrecht.

How It Works

Das Lambda nutzt eine Bedrock Knowledge Base, die von einem S3-Bucket mit kuratierten Unternehmensdokumenten unterstützt wird. Wenn ein Benutzer eine Frage stellt, wird RAG (Retrieval-Augmented Generation) durchgeführt — relevante Chunks aus der Wissensbasis abgerufen und dann mit Claude eine fundierte Antwort generiert. Session-IDs ermöglichen mehrstufige Konversationen.

Technical Flow

01

Benutzer tippt eine Frage in das schwebende Chat-Widget

02

Anfrage enthält eine Session-ID für Konversationskontinuität

03

Lambda fragt die Bedrock Knowledge Base nach relevanten Dokumenten-Chunks ab

04

Abgerufener Kontext wird in Claudes Prompt injiziert (RAG-Muster)

05

Claude generiert eine fundierte Antwort, die zum Widget zurückgestreamt wird

06

Session-Status bleibt über Nachrichten hinweg für Rückfragen erhalten

AWS Services

Amazon Bedrock
LLM-Inferenz + Knowledge Bases
Amazon S3
Dokumentenspeicher für RAG
AWS Lambda
Abfrage-Orchestrierung
API Gateway
Chat-Endpunkt mit Session-Tracking
Website Remix

Diese Website mit KI neu gestalten.

Geben Sie ein visuelles Thema ein (z.B. 'Retro 80er Neon' oder 'minimalistisches Monochrom') und KI generiert individuelles CSS, das das gesamte Erscheinungsbild der Website in Echtzeit transformiert. Jederzeit zurücksetzen auf das Original.

How It Works

Das Lambda sendet Ihre Themenbeschreibung an Claude mit einem System-Prompt, der die CSS Custom Properties und die Design-Token-Struktur der Website enthält. Claude generiert überschreibendes CSS, das die bestehenden Theme-Variablen anspricht. Das Frontend injiziert das CSS als <style>-Tag und stylt die Seite sofort um.

Technical Flow

01

Benutzer gibt eine Themenbeschreibung ein (z.B. 'warme Erdtöne')

02

Lambda sendet den Prompt mit dem CSS-Variablen-Schema der Website

03

Claude generiert CSS-Überschreibungen für die Theme Custom Properties

04

Antwort wird mit CSS zwischen ---CSS--- Markern gestreamt

05

Frontend extrahiert das CSS und injiziert es als <style>-Element

06

Ein Banner erscheint mit einem Reset-Button zur Wiederherstellung des Original-Themes

AWS Services

Amazon Bedrock
CSS-Generierung mit Claude
AWS Lambda
Theme-Prompt-Handler
API Gateway
Remix-Endpunkt
Live-Übersetzung

Diese Website in 25+ Sprachen lesen.

Klicken Sie auf eine Sprachflagge und die gesamte Seite wird vor Ort übersetzt — Überschriften, Absätze, Buttons und alles andere. Übersetzungen sind kontextbewusst und behalten die Formatierung bei. Jederzeit auf Englisch zurücksetzen.

How It Works

Das Frontend sammelt alle übersetzbaren Textknoten aus dem DOM, bündelt sie (50 pro Anfrage) und sendet sie an ein Lambda, das Claude mit übersetzungsspezifischen Prompts aufruft. Claude gibt ein JSON-Array übersetzter Strings zurück, das das Frontend auf die entsprechenden DOM-Elemente anwendet.

Technical Flow

01

Benutzer klickt eine Sprachflagge (z.B. Deutsch, Japanisch)

02

Frontend durchläuft das DOM und sammelt Text aus übersetzbaren Elementen

03

Originaltext wird in einer Map für späteres Zurücksetzen gespeichert

04

Texte werden gebündelt (50 pro Anfrage) und an das Übersetzungs-Lambda gesendet

05

Claude übersetzt den Batch unter Beibehaltung von Formatierung und Kontext

06

Übersetzte Strings werden auf DOM-Elemente angewendet; ein Banner zeigt die aktive Sprache an

AWS Services

Amazon Bedrock
Kontextbewusste Übersetzung mit Claude
AWS Lambda
Batch-Übersetzungs-Handler
API Gateway
Übersetzungs-Endpunkt
Agentic Coding Stats

Live-GitHub-Aktivität von KI-Agenten.

Zeigt Echtzeit-GitHub-Statistiken — Commits, geänderte Zeilen und ein 7-Tage-Aktivitätsdiagramm — aus den Repositories unserer Organisation. Eine KI-generierte Erzählung fasst die Entwicklungsaktivität des Tages zusammen.

Try it

How It Works

Zwei Lambda-Funktionen treiben dieses Feature an. Das Stats-Lambda fragt die GitHub-API nach Commit- und Diff-Daten über alle Org-Repos ab und cached die Ergebnisse in DynamoDB mit TTL. Das Story-Lambda nimmt die Statistiken und sendet sie an Claude, der eine kreative Erzählung über die Coding-Aktivität des Tages generiert.

Technical Flow

01

Seite wird geladen und ruft /github-stats von der API ab

02

Stats-Lambda prüft den DynamoDB-Cache (5-Minuten-TTL)

03

Bei Cache-Miss fragt Lambda die GitHub-API nach organisationsweiten Commit-Daten ab

04

Statistiken werden aggregiert (24h, 7d) und Verlaufspunkte gespeichert

05

Frontend rendert Stats-Karten und zeichnet ein Canvas-basiertes Aktivitätsdiagramm

06

Story-Lambda sendet Statistiken an Claude für eine narrative Zusammenfassung

AWS Services

Amazon Bedrock
KI-Story-Generierung mit Claude
Amazon DynamoDB
Stats-Caching mit TTL
AWS Lambda
GitHub-API-Integration + Story-Generierung
API Gateway
Stats- und Story-Endpunkte
Architektur

Der komplette Stack

Alle KI-Features laufen auf einer serverlosen AWS-Architektur. Hier sind alle beteiligten Services, gruppiert nach Schicht.

KI / ML Schicht

Amazon Bedrock

Managed LLM-Inferenz mit Claude — treibt alle KI-Features an

Bedrock Knowledge Bases

RAG-Pipeline für die Dokumentenabfrage des Chat-Assistenten

Compute-Schicht

AWS Lambda

Serverlose Funktionen für jeden API-Endpunkt — null Leerlaufkosten

API Gateway

REST-APIs mit Throttling, CORS und benutzerdefiniertem Domain-Mapping

Datenschicht

Amazon DynamoDB

Low-Latency-Caching für GitHub-Statistiken und Rate Limiting

Amazon S3

Dokumentenspeicher für die Wissensbasis und statische Assets

Netzwerk & Orchestrierung

Amazon CloudFront

CDN für die statische Astro-Site und Asset-Auslieferung

AWS CDK

Infrastructure as Code — der gesamte Stack in TypeScript definiert

Amazon CloudWatch

Zentrales Logging, Metriken und Alerting über alle Lambdas

AWS IAM

Feingranulare Berechtigungen zwischen Services

Wollen Sie das für Ihr Produkt?

Jedes Feature auf dieser Website wird mit den gleichen Tools und Mustern gebaut, die wir auch für Kunden verwenden. Lassen Sie uns gemeinsam etwas Intelligentes bauen.

Gespräch starten
KI fragen Remix Übersetzen