LogoZenn.CEO/
DashboardChatAPI KeysDocs
Dokumentation

API-Referenz & Setup

Ein ck_-API-Key funktioniert in Claude Code, OpenCode, Codex CLI, Gemini CLI, Cursor und über direktes HTTP. Offizielle Listenpreise auf einer einzigen Rechnung — Pay as you go, kein Abo nötig.

Inhaltsverzeichnis
1. Erste Schritte2. Base-URLs3. Claude Code4. OpenCode5. Codex CLI6. Gemini CLI7. Cursor IDE8. Direkte API (cURL)9. Bildgenerierung10. Modelle & Preise11. Authentifizierung12. Pläne13. Rate-Limits & Fehler14. Demnächst

1. Erste Schritte

Zenn.Ceo ist ein Drop-in-API-Gateway für Anthropic-, OpenAI- und Google-AI-Modelle plus Bildgenerierung. Du nutzt überall einen einzigen Key mit ck_-Präfix — keine Code-Änderungen, einfach dein Tool auf unsere baseURL umbiegen.

1. API-Key holen

Wähle einen Plan auf /pricing, dann erstelle einen Key auf /manage-api-keys.

2. Base-URL setzen

Richte dein Tool auf https://zenn.ceo/api/v1 aus.

3. Bauen

Funktioniert mit Claude Code, OpenCode, Codex CLI, Gemini CLI, Cursor und jedem OpenAI-/Anthropic-kompatiblen Client.

2. Base-URLs

Ein Key, drei protokollkompatible Base-URLs (Anthropic / OpenAI / Gemini) plus ein Endpoint für Bildgenerierung.

SurfaceBase-URLNutzbar mit
Anthropic-kompatibelhttps://zenn.ceo/api/v1Claude Code, Anthropic SDK, OpenCode (Anthropic-Provider)
OpenAI-kompatibel (Codex)https://zenn.ceo/api/v1/codexCodex CLI, OpenAI SDK, Cursor
Gemini-kompatibelhttps://zenn.ceo/api/v1/geminiGemini CLI, Google AI SDK
Bildgenerierunghttps://zenn.ceo/api/v1/images/generationsgpt-image-2 (OpenAI-kompatibles Payload)

3. Claude Code

Anthropics offizielle CLI für Claude. Setze zwei Env-Variablen und sie funktioniert als Drop-in-Replacement.

Schritt 1 — Umgebung setzen

Füge zu deinem Shell-Profil hinzu (~/.zshrc oder ~/.bashrc):

shell
export ANTHROPIC_BASE_URL=https://zenn.ceo/api/v1
export ANTHROPIC_API_KEY=ck_YOUR_API_KEY

Schritt 2 — Neu starten & ausführen

terminal
# Default model (Sonnet 4.6)
claude

# Pick a different model
claude --model claude-opus-4-7
claude --model claude-haiku-4-5

So funktioniert's

Claude Code sendet den API-Key über den x-api-key-Header (nativ im Anthropic SDK) und hängt /messages an die Base-URL an. Sowohl anthropic-version als auch anthropic-beta-Header werden upstream weitergeleitet. Streaming wird über SSE unterstützt.

4. OpenCode

Multi-Provider-KI-Coding-Agent. Eine JSON-Konfiguration gibt dir Claude, GPT-5 und Gemini über einen einzigen Key.

Schritt 1 — Installieren

terminal
npm i -g opencode-ai

Schritt 2 — Konfiguration anlegen

Bearbeite ~/.config/opencode/opencode.json:

opencode.json
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "anthropic": {
      "options": {
        "baseURL": "https://zenn.ceo/api/v1",
        "apiKey": "ck_YOUR_API_KEY"
      },
      "models": {
        "claude-opus-4-7": { "name": "Claude Opus 4.7" },
        "claude-sonnet-4-6": { "name": "Claude Sonnet 4.6" },
        "claude-haiku-4-5": { "name": "Claude Haiku 4.5" }
      }
    },
    "zenn-codex": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Zenn Codex",
      "options": {
        "baseURL": "https://zenn.ceo/api/v1/codex",
        "apiKey": "ck_YOUR_API_KEY"
      },
      "models": {
        "gpt-5.5": { "name": "GPT-5.5" },
        "gpt-5.5-pro": { "name": "GPT-5.5 Pro" },
        "gpt-5.5-instant": { "name": "GPT-5.5 Instant" },
        "gpt-5.4": { "name": "GPT-5.4" },
        "gpt-5.3-codex": { "name": "GPT-5.3 Codex" }
      }
    },
    "zenn-gemini": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Zenn Gemini",
      "options": {
        "baseURL": "https://zenn.ceo/api/v1/gemini",
        "apiKey": "ck_YOUR_API_KEY"
      },
      "models": {
        "gemini-3.1-pro-preview": { "name": "Gemini 3.1 Pro" },
        "gemini-3-pro-preview": { "name": "Gemini 3 Pro" },
        "gemini-3-flash-preview": { "name": "Gemini 3 Flash" }
      }
    },
    "zenn-chinese": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Zenn Chinese (DeepSeek / Moonshot / Zhipu)",
      "options": {
        "baseURL": "https://zenn.ceo/api/v1/codex",
        "apiKey": "ck_YOUR_API_KEY"
      },
      "models": {
        "deepseek-v4-pro": { "name": "DeepSeek V4 Pro" },
        "deepseek-v4-flash": { "name": "DeepSeek V4 Flash" },
        "kimi-k2.6": { "name": "Kimi K2.6" },
        "glm-5.1": { "name": "GLM-5.1" }
      }
    }
  }
}

Schritt 3 — Ausführen

terminal
opencode

5. Codex CLI

OpenAIs offizielle CLI für die GPT-5- / Codex-Familie. Setze zwei Env-Variablen und richte sie auf unsere Codex-Base-URL aus.

Umgebung setzen

shell
export OPENAI_BASE_URL=https://zenn.ceo/api/v1/codex
export OPENAI_API_KEY=ck_YOUR_API_KEY

Ausführen

terminal
# Default
codex

# Pick a model
codex --model gpt-5.5
codex --model gpt-5.5-pro
codex --model gpt-5.5-instant
codex --model gpt-5.3-codex

# Chinese coding models (via OpenAI-compatible /v1/codex)
codex --model deepseek-v4-pro
codex --model kimi-k2.6
codex --model glm-5.1

Die Codex CLI nutzt Authorization: Bearer und das OpenAI-Format /chat/completions + /responses — beides wird unterstützt.

6. Gemini CLI

Googles Gemini CLI sendet den Key über x-goog-api-key. Der Proxy akzeptiert diesen Header transparent.

Umgebung setzen

shell
export GEMINI_BASE_URL=https://zenn.ceo/api/v1/gemini
export GEMINI_API_KEY=ck_YOUR_API_KEY

Ausführen

terminal
gemini --model gemini-3.1-pro-preview
gemini --model gemini-3-flash-preview

7. Cursor IDE

In Cursor → Settings → Models → "Custom OpenAI Model":

FeldWert
Override OpenAI Base URLhttps://zenn.ceo/api/v1/codex
OpenAI API Keyck_YOUR_API_KEY
Add custom modelsgpt-5.5, gpt-5.5-pro, gpt-5.5-instant, gpt-5.4, gpt-5.3-codex, deepseek-v4-pro, kimi-k2.6, glm-5.1

Klicke nach dem Speichern auf Verify — Cursor ruft /models auf der Base-URL auf, um zu bestätigen, dass der Key funktioniert.

8. Direkte API (cURL)

Drei Protokoll-Formate, ein Key. Wähle das, was dein Client bereits spricht.

Anthropic-kompatibel — /v1/messages

cURL · Claude
curl -X POST https://zenn.ceo/api/v1/messages \
  -H "x-api-key: ck_YOUR_API_KEY" \
  -H "anthropic-version: 2023-06-01" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "claude-sonnet-4-6",
    "max_tokens": 1024,
    "messages": [{"role": "user", "content": "Hello, Claude"}]
  }'

OpenAI-kompatibel — /v1/codex/chat/completions

cURL · GPT-5.5
curl -X POST https://zenn.ceo/api/v1/codex/chat/completions \
  -H "Authorization: Bearer ck_YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-5.5",
    "messages": [{"role": "user", "content": "Hello, GPT-5.5"}],
    "stream": true
  }'

Gemini — /v1/gemini/chat/completions

cURL · Gemini
curl -X POST https://zenn.ceo/api/v1/gemini/chat/completions \
  -H "Authorization: Bearer ck_YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gemini-3.1-pro-preview",
    "messages": [{"role": "user", "content": "Hello, Gemini"}]
  }'

9. Bildgenerierung

gpt-image-2 ist derzeit das einzige Bildmodell, das über die API geroutet werden kann. Auflösungsstufen (1K / 2K / 4K) werden zu einem Pauschalpreis abgerechnet — Details siehe Modelle. Andere Bild-, Video- und Audiomodelle sind als Demnächst gelistet.

Endpoint

POST https://zenn.ceo/api/v1/images/generations
GET  https://zenn.ceo/api/v1/images/generations  (list models)

Bild generieren

cURL · gpt-image-2
curl -X POST https://zenn.ceo/api/v1/images/generations \
  -H "Authorization: Bearer ck_YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-image-2",
    "prompt": "A cinematic photo of a small red apple on a marble countertop",
    "n": 1
  }'

Async-Verhalten

DocsPage.imageGen.asyncBody

Im Browser-Chat

Öffne /chat, wähle "GPT Image 2 — Image Generation" im Modell-Picker, schicke einen Prompt, und das Bild wird inline gerendert. Der Server pollt upstream für dich und berechnet 6 Credits ($0,06) pro Bild.

10. Modelle & Preise

Guthaben-basierte Abrechnung (1.000.000 Credits = 1,00 $). LLM-Preise sind die offiziellen Listenpreise pro Million Tokens; Bilder werden pro Generation berechnet. Mit Demnächst markierte Modelle sind gelistet, aber die API lehnt sie bis zur Aktivierung ab. Jedes Modell wird zum offiziellen Listenpreis abgerechnet — Mehrwert entsteht durch den Credit-Multiplikator beim Aufladen (Pro 1×, Max 4×, Enterprise 6×). Siehe Abschnitt 12 für Plan-Details.

Claude (Anthropic)

Modell-IDInput / MTokOutput / MTokCache ReadStatus
claude-opus-4-7$15.00$75.00$1.50Live
claude-opus-4-6$15.00$75.00$1.50Live
claude-sonnet-4-6$3.00$15.00$0.30Live
claude-haiku-4-5$1.00$5.00$0.10Live

OpenAI / GPT

Modell-IDInput / MTokOutput / MTokCache ReadStatus
gpt-5.5$5.00$30.00$0.50Live
gpt-5.5-instant$5.00$30.00$0.50Live
gpt-5.5-pro$30.00$180.00$30.00Live
gpt-5.4$5.00$22.50$0.50Live
gpt-5.3-codex$1.75$14.00$0.17Live
gpt-5.2$1.75$14.00$0.17Live

Gemini (Google)

Modell-IDInput / MTokOutput / MTokCache ReadStatus
gemini-3.1-pro-preview$4.00$18.00$0.40Live
gemini-3-pro-preview$4.00$18.00$0.40Live
gemini-3-flash-preview$0.50$3.00$0.05Live

DeepSeek / Moonshot / Zhipu

Modell-IDInput / MTokOutput / MTokCache ReadStatus
deepseek-v4-pro$1.74$3.48$0.01Live
deepseek-v4-flash$0.14$0.28$0.0028Live
kimi-k2.6$0.95$4.00$0.16Live
glm-5.1$1.40$4.40$0.26Live

Bild (live)

Modell-IDCredits / BildPreis / BildStatus
gpt-image-260000$0.06Live

Alle Bild-, Video- und Audiomodelle laufen zum offiziellen Listenpreis ab. Andere Bildmodelle (Nano-Banana-Familie, Gemini 3 Pro Image, Seedream) sind im Katalog gelistet, aktuell aber Demnächst — die API lehnt sie ab, bis sie aktiviert sind. Siehe /models für den vollständigen Katalog.

11. Authentifizierung

Alle API-Keys nutzen das Präfix ck_. Der Proxy akzeptiert jedes Standard-SDK-Header-Format, sodass Clients ohne Anpassungen funktionieren.

HeaderFormatVerwendet von
x-api-keyck_...Claude Code, Anthropic SDK
AuthorizationBearer ck_...OpenCode, Codex CLI, OpenAI SDK, cURL
anthropic-api-keyck_...Alternativer Anthropic-Header
x-goog-api-keyck_...Gemini CLI

Weitergeleitete Header

anthropic-version (Default: 2023-06-01) und anthropic-beta werden durchgereicht. SSE-Streaming wird vollständig unterstützt.

12. Pläne

Einmalige Aufladung — kein Abo. Jede Aufladung fixiert einen Credit-Multiplikator (Pro 1×, Max 4×, Enterprise 6×) — Ihre Credits behalten diesen Multiplikator-Wert bis zum Verbrauch. Spätere Aufladungen können jeden Tarif wählen.

Pro
$10 · 20.000.000 Credits

Standardpreise. Pay-as-you-go.

  • · Jedes Frontier-LLM zum offiziellen Listenpreis
  • · OpenAI- / Anthropic- / Gemini-kompatible API
  • · Spend-Limits pro Key, Echtzeit-Analytics
Max
$100 · 800.000.000 Credits

4× Credits — $100 ergeben $400 Nutzung zum Listenpreis.

  • · Alles aus Pro
  • · 4× Credits pro Dollar zum Aufladezeitpunkt
  • · Gleicher Listenpreis bei jedem Modell
  • · Priority Queue + schnelleres Routing
Enterprise
$2.000 · 12.000.000.000 Credits

6× Credits — $2.000 ergeben $12.000 Nutzung + priorisierter Anthropic-Max-Channel.

  • · Alles aus Max
  • · 6× Credits pro Dollar zum Aufladezeitpunkt
  • · Gleicher Listenpreis bei jedem Modell
  • · Priorisierter Anthropic-Max-Channel
  • · Dedizierter Support, audit-freundliche Rechnungsstellung

Eine Preisregel, jedes Modell

  • · Jedes LLM-, Bild-, Video- und Audiomodell läuft zum offiziellen Listenpreis ab, der auf /models angezeigt wird.
  • · Der Mehrwert von Max ($100 → 4×) und Enterprise ($2.000 → 6×) entsteht durch zusätzliche Credits, die zum Aufladezeitpunkt gewährt werden — nicht durch Rabattstufen pro Modell.
  • · Keine Bucket-Berechtigung, kein Kleingedrucktes pro Modell — deine Credits funktionieren bei Claude Opus, GPT-5.5 und Gemini Flash gleich.

Multiplikatoren gelten pro Aufladung. Bestehende Max-Credits behalten ihren 4×-Wert, bis du sie ausgegeben hast — lädst du danach Pro auf, ergeben diese $10 20M Credits zu 1×. Siehe /pricing für die volle Aufschlüsselung.

13. Rate-Limits & Fehler

Rate-Limits pro Nutzer

EndpointRequests / Stunde
/v1/messages, /v1/chat/completions, /v1/gemini1,000
/v1/images/generations500
/v1/responses, /v1/codex/*1,000

Der Rate-Limit-Status wird in den Response-Headern zurückgegeben: x-ratelimit-limit, x-ratelimit-remaining, x-ratelimit-reset.

Fehlercodes

StatusBedeutung
401API-Key fehlt / ungültig
402Nicht genug Credits — auf /checkout aufladen
403Tier schaltet das angeforderte Modell nicht frei (z. B. Opus 4.7)
429Rate-Limit pro Nutzer erreicht
503Modell ist gelistet, aber Demnächst
504Bildgenerierung Timeout (erneut versuchen)

14. Demnächst

Öffentlich gelistet, aber die API lehnt sie ab, bis sich die Marge im Credit-Multiplikator-Modell stabilisiert:

Bild (mehr)

Nano-Banana-Familie, Gemini 3 Pro Image, Seedream, GPT-4o Image, Imagen.

Video

Veo 3.1, Kling 3.0, Seedance 2.0, HappyHorse 1.0, MiniMax Hailuo, Vidu Q3, WAN 2.6.

Audio

Fish Audio TTS, Voice Clone, ASR.

Siehe das vollständige Listing auf /models. Demnächst-Einträge geben HTTP 503 von der API zurück; sie heute aufzurufen ist ein No-Op und verbraucht keine Credits.

Bereit loszulegen?

Ein Key funktioniert in Claude Code, OpenCode, Codex CLI, Gemini CLI und Cursor. Lade Credits auf und erstelle deinen API-Key.

Pläne ansehenAPI-Keys verwalten
Logo
Zenn.CEOFrontier-Intelligenz für alle
XX (Twitter)GitHubLinkedInEmail
Product
  • Chat
  • API
  • Pricing
Unternehmen
  • About
  • Kontakt
  • Cookie-Richtlinie
  • Datenschutzerklärung
  • AGB
  • Rückerstattungsrichtlinie
Alle Systeme stabil
•Mit Liebe aus Kalifornien gebaut ❤️
© Copyright 2026. Alle Rechte vorbehalten.