API-Referenz & Setup
Ein ck_-API-Key funktioniert in Claude Code, OpenCode, Codex CLI, Gemini CLI, Cursor und über direktes HTTP. Offizielle Listenpreise auf einer einzigen Rechnung — Pay as you go, kein Abo nötig.
1. Erste Schritte
Zenn.Ceo ist ein Drop-in-API-Gateway für Anthropic-, OpenAI- und Google-AI-Modelle plus Bildgenerierung. Du nutzt überall einen einzigen Key mit ck_-Präfix — keine Code-Änderungen, einfach dein Tool auf unsere baseURL umbiegen.
Wähle einen Plan auf /pricing, dann erstelle einen Key auf /manage-api-keys.
Richte dein Tool auf https://zenn.ceo/api/v1 aus.
Funktioniert mit Claude Code, OpenCode, Codex CLI, Gemini CLI, Cursor und jedem OpenAI-/Anthropic-kompatiblen Client.
2. Base-URLs
Ein Key, drei protokollkompatible Base-URLs (Anthropic / OpenAI / Gemini) plus ein Endpoint für Bildgenerierung.
| Surface | Base-URL | Nutzbar mit |
|---|---|---|
| Anthropic-kompatibel | https://zenn.ceo/api/v1 | Claude Code, Anthropic SDK, OpenCode (Anthropic-Provider) |
| OpenAI-kompatibel (Codex) | https://zenn.ceo/api/v1/codex | Codex CLI, OpenAI SDK, Cursor |
| Gemini-kompatibel | https://zenn.ceo/api/v1/gemini | Gemini CLI, Google AI SDK |
| Bildgenerierung | https://zenn.ceo/api/v1/images/generations | gpt-image-2 (OpenAI-kompatibles Payload) |
3. Claude Code
Anthropics offizielle CLI für Claude. Setze zwei Env-Variablen und sie funktioniert als Drop-in-Replacement.
Schritt 1 — Umgebung setzen
Füge zu deinem Shell-Profil hinzu (~/.zshrc oder ~/.bashrc):
export ANTHROPIC_BASE_URL=https://zenn.ceo/api/v1 export ANTHROPIC_API_KEY=ck_YOUR_API_KEY
Schritt 2 — Neu starten & ausführen
# Default model (Sonnet 4.6) claude # Pick a different model claude --model claude-opus-4-7 claude --model claude-haiku-4-5
So funktioniert's
Claude Code sendet den API-Key über den x-api-key-Header (nativ im Anthropic SDK) und hängt /messages an die Base-URL an. Sowohl anthropic-version als auch anthropic-beta-Header werden upstream weitergeleitet. Streaming wird über SSE unterstützt.
4. OpenCode
Multi-Provider-KI-Coding-Agent. Eine JSON-Konfiguration gibt dir Claude, GPT-5 und Gemini über einen einzigen Key.
Schritt 1 — Installieren
npm i -g opencode-ai
Schritt 2 — Konfiguration anlegen
Bearbeite ~/.config/opencode/opencode.json:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://zenn.ceo/api/v1",
"apiKey": "ck_YOUR_API_KEY"
},
"models": {
"claude-opus-4-7": { "name": "Claude Opus 4.7" },
"claude-sonnet-4-6": { "name": "Claude Sonnet 4.6" },
"claude-haiku-4-5": { "name": "Claude Haiku 4.5" }
}
},
"zenn-codex": {
"npm": "@ai-sdk/openai-compatible",
"name": "Zenn Codex",
"options": {
"baseURL": "https://zenn.ceo/api/v1/codex",
"apiKey": "ck_YOUR_API_KEY"
},
"models": {
"gpt-5.5": { "name": "GPT-5.5" },
"gpt-5.5-pro": { "name": "GPT-5.5 Pro" },
"gpt-5.5-instant": { "name": "GPT-5.5 Instant" },
"gpt-5.4": { "name": "GPT-5.4" },
"gpt-5.3-codex": { "name": "GPT-5.3 Codex" }
}
},
"zenn-gemini": {
"npm": "@ai-sdk/openai-compatible",
"name": "Zenn Gemini",
"options": {
"baseURL": "https://zenn.ceo/api/v1/gemini",
"apiKey": "ck_YOUR_API_KEY"
},
"models": {
"gemini-3.1-pro-preview": { "name": "Gemini 3.1 Pro" },
"gemini-3-pro-preview": { "name": "Gemini 3 Pro" },
"gemini-3-flash-preview": { "name": "Gemini 3 Flash" }
}
},
"zenn-chinese": {
"npm": "@ai-sdk/openai-compatible",
"name": "Zenn Chinese (DeepSeek / Moonshot / Zhipu)",
"options": {
"baseURL": "https://zenn.ceo/api/v1/codex",
"apiKey": "ck_YOUR_API_KEY"
},
"models": {
"deepseek-v4-pro": { "name": "DeepSeek V4 Pro" },
"deepseek-v4-flash": { "name": "DeepSeek V4 Flash" },
"kimi-k2.6": { "name": "Kimi K2.6" },
"glm-5.1": { "name": "GLM-5.1" }
}
}
}
}Schritt 3 — Ausführen
opencode
5. Codex CLI
OpenAIs offizielle CLI für die GPT-5- / Codex-Familie. Setze zwei Env-Variablen und richte sie auf unsere Codex-Base-URL aus.
Umgebung setzen
export OPENAI_BASE_URL=https://zenn.ceo/api/v1/codex export OPENAI_API_KEY=ck_YOUR_API_KEY
Ausführen
# Default codex # Pick a model codex --model gpt-5.5 codex --model gpt-5.5-pro codex --model gpt-5.5-instant codex --model gpt-5.3-codex # Chinese coding models (via OpenAI-compatible /v1/codex) codex --model deepseek-v4-pro codex --model kimi-k2.6 codex --model glm-5.1
Die Codex CLI nutzt Authorization: Bearer und das OpenAI-Format /chat/completions + /responses — beides wird unterstützt.
6. Gemini CLI
Googles Gemini CLI sendet den Key über x-goog-api-key. Der Proxy akzeptiert diesen Header transparent.
Umgebung setzen
export GEMINI_BASE_URL=https://zenn.ceo/api/v1/gemini export GEMINI_API_KEY=ck_YOUR_API_KEY
Ausführen
gemini --model gemini-3.1-pro-preview gemini --model gemini-3-flash-preview
7. Cursor IDE
In Cursor → Settings → Models → "Custom OpenAI Model":
| Feld | Wert |
|---|---|
| Override OpenAI Base URL | https://zenn.ceo/api/v1/codex |
| OpenAI API Key | ck_YOUR_API_KEY |
| Add custom models | gpt-5.5, gpt-5.5-pro, gpt-5.5-instant, gpt-5.4, gpt-5.3-codex, deepseek-v4-pro, kimi-k2.6, glm-5.1 |
Klicke nach dem Speichern auf Verify — Cursor ruft /models auf der Base-URL auf, um zu bestätigen, dass der Key funktioniert.
8. Direkte API (cURL)
Drei Protokoll-Formate, ein Key. Wähle das, was dein Client bereits spricht.
Anthropic-kompatibel — /v1/messages
curl -X POST https://zenn.ceo/api/v1/messages \
-H "x-api-key: ck_YOUR_API_KEY" \
-H "anthropic-version: 2023-06-01" \
-H "Content-Type: application/json" \
-d '{
"model": "claude-sonnet-4-6",
"max_tokens": 1024,
"messages": [{"role": "user", "content": "Hello, Claude"}]
}'OpenAI-kompatibel — /v1/codex/chat/completions
curl -X POST https://zenn.ceo/api/v1/codex/chat/completions \
-H "Authorization: Bearer ck_YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-5.5",
"messages": [{"role": "user", "content": "Hello, GPT-5.5"}],
"stream": true
}'Gemini — /v1/gemini/chat/completions
curl -X POST https://zenn.ceo/api/v1/gemini/chat/completions \
-H "Authorization: Bearer ck_YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "gemini-3.1-pro-preview",
"messages": [{"role": "user", "content": "Hello, Gemini"}]
}'9. Bildgenerierung
gpt-image-2 ist derzeit das einzige Bildmodell, das über die API geroutet werden kann. Auflösungsstufen (1K / 2K / 4K) werden zu einem Pauschalpreis abgerechnet — Details siehe Modelle. Andere Bild-, Video- und Audiomodelle sind als Demnächst gelistet.
Endpoint
POST https://zenn.ceo/api/v1/images/generations GET https://zenn.ceo/api/v1/images/generations (list models)
Bild generieren
curl -X POST https://zenn.ceo/api/v1/images/generations \
-H "Authorization: Bearer ck_YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-image-2",
"prompt": "A cinematic photo of a small red apple on a marble countertop",
"n": 1
}'Async-Verhalten
DocsPage.imageGen.asyncBody
Im Browser-Chat
Öffne /chat, wähle "GPT Image 2 — Image Generation" im Modell-Picker, schicke einen Prompt, und das Bild wird inline gerendert. Der Server pollt upstream für dich und berechnet 6 Credits ($0,06) pro Bild.
10. Modelle & Preise
Guthaben-basierte Abrechnung (1.000.000 Credits = 1,00 $). LLM-Preise sind die offiziellen Listenpreise pro Million Tokens; Bilder werden pro Generation berechnet. Mit Demnächst markierte Modelle sind gelistet, aber die API lehnt sie bis zur Aktivierung ab. Jedes Modell wird zum offiziellen Listenpreis abgerechnet — Mehrwert entsteht durch den Credit-Multiplikator beim Aufladen (Pro 1×, Max 4×, Enterprise 6×). Siehe Abschnitt 12 für Plan-Details.
Claude (Anthropic)
| Modell-ID | Input / MTok | Output / MTok | Cache Read | Status |
|---|---|---|---|---|
| claude-opus-4-7 | $15.00 | $75.00 | $1.50 | Live |
| claude-opus-4-6 | $15.00 | $75.00 | $1.50 | Live |
| claude-sonnet-4-6 | $3.00 | $15.00 | $0.30 | Live |
| claude-haiku-4-5 | $1.00 | $5.00 | $0.10 | Live |
OpenAI / GPT
| Modell-ID | Input / MTok | Output / MTok | Cache Read | Status |
|---|---|---|---|---|
| gpt-5.5 | $5.00 | $30.00 | $0.50 | Live |
| gpt-5.5-instant | $5.00 | $30.00 | $0.50 | Live |
| gpt-5.5-pro | $30.00 | $180.00 | $30.00 | Live |
| gpt-5.4 | $5.00 | $22.50 | $0.50 | Live |
| gpt-5.3-codex | $1.75 | $14.00 | $0.17 | Live |
| gpt-5.2 | $1.75 | $14.00 | $0.17 | Live |
Gemini (Google)
| Modell-ID | Input / MTok | Output / MTok | Cache Read | Status |
|---|---|---|---|---|
| gemini-3.1-pro-preview | $4.00 | $18.00 | $0.40 | Live |
| gemini-3-pro-preview | $4.00 | $18.00 | $0.40 | Live |
| gemini-3-flash-preview | $0.50 | $3.00 | $0.05 | Live |
DeepSeek / Moonshot / Zhipu
| Modell-ID | Input / MTok | Output / MTok | Cache Read | Status |
|---|---|---|---|---|
| deepseek-v4-pro | $1.74 | $3.48 | $0.01 | Live |
| deepseek-v4-flash | $0.14 | $0.28 | $0.0028 | Live |
| kimi-k2.6 | $0.95 | $4.00 | $0.16 | Live |
| glm-5.1 | $1.40 | $4.40 | $0.26 | Live |
Bild (live)
| Modell-ID | Credits / Bild | Preis / Bild | Status |
|---|---|---|---|
| gpt-image-2 | 60000 | $0.06 | Live |
Alle Bild-, Video- und Audiomodelle laufen zum offiziellen Listenpreis ab. Andere Bildmodelle (Nano-Banana-Familie, Gemini 3 Pro Image, Seedream) sind im Katalog gelistet, aktuell aber Demnächst — die API lehnt sie ab, bis sie aktiviert sind. Siehe /models für den vollständigen Katalog.
11. Authentifizierung
Alle API-Keys nutzen das Präfix ck_. Der Proxy akzeptiert jedes Standard-SDK-Header-Format, sodass Clients ohne Anpassungen funktionieren.
| Header | Format | Verwendet von |
|---|---|---|
| x-api-key | ck_... | Claude Code, Anthropic SDK |
| Authorization | Bearer ck_... | OpenCode, Codex CLI, OpenAI SDK, cURL |
| anthropic-api-key | ck_... | Alternativer Anthropic-Header |
| x-goog-api-key | ck_... | Gemini CLI |
Weitergeleitete Header
anthropic-version (Default: 2023-06-01) und anthropic-beta werden durchgereicht. SSE-Streaming wird vollständig unterstützt.
12. Pläne
Einmalige Aufladung — kein Abo. Jede Aufladung fixiert einen Credit-Multiplikator (Pro 1×, Max 4×, Enterprise 6×) — Ihre Credits behalten diesen Multiplikator-Wert bis zum Verbrauch. Spätere Aufladungen können jeden Tarif wählen.
Standardpreise. Pay-as-you-go.
- · Jedes Frontier-LLM zum offiziellen Listenpreis
- · OpenAI- / Anthropic- / Gemini-kompatible API
- · Spend-Limits pro Key, Echtzeit-Analytics
4× Credits — $100 ergeben $400 Nutzung zum Listenpreis.
- · Alles aus Pro
- · 4× Credits pro Dollar zum Aufladezeitpunkt
- · Gleicher Listenpreis bei jedem Modell
- · Priority Queue + schnelleres Routing
6× Credits — $2.000 ergeben $12.000 Nutzung + priorisierter Anthropic-Max-Channel.
- · Alles aus Max
- · 6× Credits pro Dollar zum Aufladezeitpunkt
- · Gleicher Listenpreis bei jedem Modell
- · Priorisierter Anthropic-Max-Channel
- · Dedizierter Support, audit-freundliche Rechnungsstellung
Eine Preisregel, jedes Modell
- · Jedes LLM-, Bild-, Video- und Audiomodell läuft zum offiziellen Listenpreis ab, der auf /models angezeigt wird.
- · Der Mehrwert von Max ($100 → 4×) und Enterprise ($2.000 → 6×) entsteht durch zusätzliche Credits, die zum Aufladezeitpunkt gewährt werden — nicht durch Rabattstufen pro Modell.
- · Keine Bucket-Berechtigung, kein Kleingedrucktes pro Modell — deine Credits funktionieren bei Claude Opus, GPT-5.5 und Gemini Flash gleich.
Multiplikatoren gelten pro Aufladung. Bestehende Max-Credits behalten ihren 4×-Wert, bis du sie ausgegeben hast — lädst du danach Pro auf, ergeben diese $10 20M Credits zu 1×. Siehe /pricing für die volle Aufschlüsselung.
13. Rate-Limits & Fehler
Rate-Limits pro Nutzer
| Endpoint | Requests / Stunde |
|---|---|
| /v1/messages, /v1/chat/completions, /v1/gemini | 1,000 |
| /v1/images/generations | 500 |
| /v1/responses, /v1/codex/* | 1,000 |
Der Rate-Limit-Status wird in den Response-Headern zurückgegeben: x-ratelimit-limit, x-ratelimit-remaining, x-ratelimit-reset.
Fehlercodes
| Status | Bedeutung |
|---|---|
| 401 | API-Key fehlt / ungültig |
| 402 | Nicht genug Credits — auf /checkout aufladen |
| 403 | Tier schaltet das angeforderte Modell nicht frei (z. B. Opus 4.7) |
| 429 | Rate-Limit pro Nutzer erreicht |
| 503 | Modell ist gelistet, aber Demnächst |
| 504 | Bildgenerierung Timeout (erneut versuchen) |
14. Demnächst
Öffentlich gelistet, aber die API lehnt sie ab, bis sich die Marge im Credit-Multiplikator-Modell stabilisiert:
Nano-Banana-Familie, Gemini 3 Pro Image, Seedream, GPT-4o Image, Imagen.
Veo 3.1, Kling 3.0, Seedance 2.0, HappyHorse 1.0, MiniMax Hailuo, Vidu Q3, WAN 2.6.
Fish Audio TTS, Voice Clone, ASR.
Siehe das vollständige Listing auf /models. Demnächst-Einträge geben HTTP 503 von der API zurück; sie heute aufzurufen ist ein No-Op und verbraucht keine Credits.
Bereit loszulegen?
Ein Key funktioniert in Claude Code, OpenCode, Codex CLI, Gemini CLI und Cursor. Lade Credits auf und erstelle deinen API-Key.
