ChatGPT im Browser nutzen kann jeder. Aber was wenn du KI in deine eigene App, Website oder Automatisierung einbauen willst? Dafür gibt es die OpenAI API. Und sie ist einfacher als du denkst.
Was ist die OpenAI API?
Die API (Application Programming Interface) ist eine Schnittstelle die dir erlaubt, ChatGPTs KI-Modelle in deinen eigenen Programmen zu nutzen. Statt im Browser zu chatten, schickt dein Code eine Anfrage an OpenAI und bekommt eine Antwort zurück.
Was du damit bauen kannst:
- Chatbots für deine Website
- E-Mail-Automatisierung (KI beantwortet Kundenanfragen)
- Content-Pipeline (Blog-Artikel auf Knopfdruck)
- Datenanalyse-Tools
- Eigene KI-Assistenten für spezifische Aufgaben
Schritt 1: API-Zugang einrichten (5 Minuten)
- Geh auf platform.openai.com
- Erstelle einen Account (oder logge dich mit deinem ChatGPT-Account ein)
- Navigiere zu API Keys → “Create new secret key”
- Kopiere den Key und speichere ihn sicher (wird nur einmal angezeigt!)
- Lade Guthaben auf unter Billing (mindestens 5$)
Schritt 2: Erster API-Call (10 Minuten)
Python (Einfachste Methode)
# Installiere: pip install openai
from openai import OpenAI
client = OpenAI(api_key="dein-api-key-hier")
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[
{"role": "system", "content": "Du bist ein hilfreicher Assistent."},
{"role": "user", "content": "Erkläre mir APIs in 3 Sätzen."}
]
)
print(response.choices[0].message.content)
Das war’s. 8 Zeilen Code, und du hast deinen ersten API-Call gemacht.
Erklärung der Parameter
| Parameter | Bedeutung |
|---|---|
model | Welches KI-Modell (gpt-4o-mini, gpt-4o, etc.) |
messages | Die Konversation (System-Prompt + User-Nachricht) |
role: system | Instruktionen für die KI (Rolle, Ton, Regeln) |
role: user | Die Frage/Aufgabe des Nutzers |
role: assistant | Bisherige KI-Antworten (für Kontext) |
Weitere nützliche Parameter
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[...],
temperature=0.7, # 0=deterministisch, 1=kreativ
max_tokens=500, # Maximale Antwortlänge
top_p=1, # Nucleus Sampling
)
Kosten verstehen: Token-System
Was sind Tokens?
Tokens sind Texteinheiten die die API verarbeitet. Faustregel: 1 Token ≈ 0,75 Wörter (deutsch etwas weniger wegen längerer Wörter).
Preistabelle (Stand 2026)
| Modell | Input/1M Tokens | Output/1M Tokens | ~Pro 1.000 Wörter |
|---|---|---|---|
| GPT-4o mini | 0,15$ | 0,60$ | ~0,001$ |
| GPT-4o | 2,50$ | 10,00$ | ~0,01$ |
| GPT-4 Turbo | 10,00$ | 30,00$ | ~0,04$ |
| o1 (Reasoning) | 15,00$ | 60,00$ | ~0,08$ |
Kosten-Rechnung: Praktische Beispiele
| Anwendung | Modell | Tokens/Anfrage | Kosten/Anfrage | 1.000 Anfragen |
|---|---|---|---|---|
| E-Mail beantworten | GPT-4o mini | ~500 | ~0,0003$ | 0,30$ |
| Blog-Artikel | GPT-4o mini | ~3.000 | ~0,002$ | 2,00$ |
| Vertragsanalyse | GPT-4o | ~10.000 | ~0,10$ | 100$ |
| Chatbot-Gespräch | GPT-4o mini | ~1.000 | ~0,0006$ | 0,60$ |
Praktische Projekte
Projekt 1: Website-Chatbot
# Einfacher Chatbot mit Kontext
messages = [
{"role": "system", "content": """Du bist der Support-Bot von MeinShop.de.
Du beantwortest Fragen zu: Versand (2-3 Tage), Retouren (30 Tage),
Öffnungszeiten (Mo-Fr 9-17 Uhr). Bei komplexen Fragen verweise auf
support@meinshop.de."""}
]
while True:
user_input = input("Kunde: ")
messages.append({"role": "user", "content": user_input})
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=messages,
temperature=0.3
)
answer = response.choices[0].message.content
messages.append({"role": "assistant", "content": answer})
print(f"Bot: {answer}")
Projekt 2: E-Mail-Klassifizierung
def classify_email(email_text):
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{
"role": "system",
"content": "Klassifiziere E-Mails. Antworte NUR mit: DRINGEND, NORMAL, SPAM"
}, {
"role": "user",
"content": email_text
}],
temperature=0
)
return response.choices[0].message.content
API-Alternativen
| API | Stärke | Free Tier | Preis |
|---|---|---|---|
| OpenAI | GPT-4o, größtes Ökosystem | 5-18$ Startguthaben | Pay-per-use |
| Anthropic (Claude) | Beste Textqualität, 200K Kontext | Nein | Pay-per-use |
| Google Gemini | Großzügiges Free Tier, multimodal | 500 Req/Tag kostenlos | Pay-per-use |
| Mistral | Europäisch, schnell, günstig | Ja | Pay-per-use |
| Ollama (lokal) | Kostenlos, privat, keine Cloud | Unbegrenzt | 0$ (eigene Hardware) |
Sicherheit
- API-Key niemals im Code committen – nutze Umgebungsvariablen
- Rate Limiting einbauen – schützt vor Kosten-Explosion
- Input validieren – verhindere Prompt Injection
- Output filtern – bei öffentlichen Chatbots Content-Moderation nutzen
- Budgets setzen – OpenAI Dashboard → Usage Limits
Weiterlesen:
- Die 10 besten KI-Tools 2026: Der große Überblick
- Was ist ein LLM? Large Language Models einfach erklärt
- KI-Agenten erklärt: Was sind AI Agents?
- RAG erklärt: Was ist Retrieval Augmented Generation?
Häufige Fragen
Was kostet die ChatGPT API?
Pay-per-use. GPT-4o mini kostet ~0,001$ pro 1.000 Wörter Output. GPT-4o kostet ~0,01$ pro 1.000 Wörter. Für die meisten Projekte unter 5$/Monat.
Brauche ich Programmierkenntnisse?
Basis-Python-Kenntnisse reichen. Der API-Call ist 5 Zeilen Code. Für No-Code gibt es Alternativen wie Make, n8n oder Zapier die die API ohne Programmierung nutzen.
Was ist der Unterschied zwischen ChatGPT und der API?
ChatGPT ist die fertige Chat-Oberfläche. Die API ist die Schnittstelle für Entwickler die KI in eigene Apps einbauen wollen. Gleiche KI-Modelle, andere Nutzungsform.
Gibt es eine kostenlose API?
OpenAI gibt neuen Accounts kostenloses Guthaben (5-18$). Danach pay-per-use. Alternativen: Google Gemini API (großzügiges Free Tier), Mistral API, lokale LLMs (komplett kostenlos).
