Die KI-Welt steckt voller Fachbegriffe. Dieses Glossar erklärt die 30 wichtigsten – verständlich, auf Deutsch, mit Beispielen.
A
AGI (Artificial General Intelligence)
Eine KI die ALLES kann was ein Mensch kann – denken, lernen, kreativ sein, Probleme lösen. Existiert noch nicht. Aktuelle KIs (ChatGPT, Claude) sind “narrow AI” – stark in bestimmten Aufgaben, aber kein echtes Verständnis.
API (Application Programming Interface)
Eine Schnittstelle über die Programme mit KI-Modellen kommunizieren. Beispiel: Eine App nutzt die ChatGPT-API um Kundenfragen automatisch zu beantworten.
Alignment
Das Problem sicherzustellen dass eine KI das tut was Menschen WOLLEN – nicht nur was sie SAGEN. Anthropic (Claude) fokussiert sich stark auf Alignment. Beispiel: Eine KI soll nicht nur korrekte Antworten geben, sondern auch sichere und hilfreiche.
C
Chatbot
Ein Programm das in natürlicher Sprache mit Menschen kommuniziert. ChatGPT, Claude und Gemini sind fortgeschrittene Chatbots. Der Unterschied zu früheren Chatbots: LLMs verstehen Kontext und Nuancen.
Context Window (Kontextfenster)
Wie viel Text eine KI gleichzeitig “sehen” kann. GPT-4o: 128K Tokens. Claude: 200K+ Tokens. Je grösser, desto längere Dokumente kann die KI verarbeiten.
Constitutional AI
Anthropics Methode Claude “Regeln” beizubringen (hilfreich, harmlos, ehrlich). Statt nur aus Nutzerfeedback zu lernen, bekommt Claude eine “Verfassung” die sein Verhalten steuert.
D
Deep Learning
Eine Methode des maschinellen Lernens mit künstlichen neuronalen Netzen die viele Schichten (“deep”) haben. Die Grundlage aller modernen KI-Modelle.
Diffusion Model
Die Technik hinter KI-Bildgeneratoren wie Midjourney und DALL-E. Startet mit Rauschen und entfernt es schrittweise, bis ein Bild entsteht – wie eine Skulptur aus Marmor meisseln.
E
Embedding
Eine numerische Darstellung von Text (oder Bildern) als Vektor. Ermöglicht es KIs, Ähnlichkeiten zu erkennen. “Hund” und “Katze” haben ähnliche Embeddings, “Hund” und “Buchhaltung” nicht.
F
Few-Shot Learning
Einer KI ein paar Beispiele geben damit sie das Muster versteht. “Schreib so wie in diesen 3 Beispielen.” Funktioniert erstaunlich gut bei LLMs.
Fine-Tuning
Ein vortrainiertes Modell auf spezifische Daten nachtrainieren. Beispiel: Ein allgemeines LLM auf medizinische Texte feinabstimmen für bessere Arzt-Antworten.
G
Generative AI
KI die NEUES erstellt: Texte, Bilder, Musik, Code, Videos. ChatGPT, Midjourney, Suno – alles generative AI. Im Gegensatz zu analytischer KI die bestehende Daten auswertet.
GPT (Generative Pre-trained Transformer)
OpenAIs Modellreihe. GPT-4o ist die aktuelle Version hinter ChatGPT. “Generative” = erzeugt Text, “Pre-trained” = auf riesigen Datenmengen vortrainiert, “Transformer” = die Architektur.
H
Halluzination
Wenn eine KI überzeugend klingende aber FALSCHE Informationen generiert. Das grösste Problem aktueller LLMs. Beispiel: Die KI erfindet ein Studienergebnis das nicht existiert.
I
Inference
Der Prozess wenn eine KI eine Antwort generiert. Im Gegensatz zu “Training” (wo das Modell lernt). Jedes Mal wenn du ChatGPT eine Frage stellst, ist das Inference.
L
LLM (Large Language Model)
Ein grosses Sprachmodell – die Technologie hinter ChatGPT, Claude und Co. Mehr Details in unserem Artikel: Was ist ein LLM?
M
Machine Learning (Maschinelles Lernen)
Der Oberbegriff für Algorithmen die aus Daten lernen statt explizit programmiert zu werden. Deep Learning ist eine Unterform von Machine Learning.
Model (Modell)
Die “Software” die gelernt hat aus Daten Vorhersagen zu machen. GPT-4o, Claude Opus 4, Llama 3 – das sind alles Modelle. Wie ein Gehirn das trainiert wurde.
Multimodal
Eine KI die verschiedene Medientypen versteht: Text, Bilder, Audio, Video. GPT-4o ist multimodal – du kannst Text schreiben, Bilder hochladen und Sprache nutzen.
N
Neural Network (Neuronales Netz)
Von Gehirn-Neuronen inspirierte Software-Architektur. Besteht aus Schichten von “Neuronen” die Informationen verarbeiten. Die Grundlage von Deep Learning.
NLP (Natural Language Processing)
Verarbeitung natürlicher Sprache durch Computer. Alles von Autokorrektur bis ChatGPT ist NLP.
O
Open Source
KI-Modelle deren Code öffentlich ist. Llama 3 (Meta), Mistral, Stable Diffusion – jeder kann sie herunterladen und nutzen. Gegensatz: Closed Source (GPT-4, Claude).
P
Parameter
Die “Gehirnzellen” eines KI-Modells. Mehr Parameter = mehr Wissen. GPT-4: geschätzt 1.7 Billionen. Llama 3: 405 Milliarden. Je mehr, desto besser (und teurer).
Prompt
Die Eingabe die du einer KI gibst. Die Qualität deines Prompts bestimmt die Qualität der Antwort. Mehr dazu: Prompt Engineering: 10 Tipps
Prompt Engineering
Die Kunst, Prompts so zu formulieren dass KIs optimale Ergebnisse liefern. Eine gefragte Fähigkeit auf dem Arbeitsmarkt.
R
RAG (Retrieval Augmented Generation)
Eine Technik die LLMs mit externen Datenquellen verbindet. Statt nur aus dem Training zu antworten, sucht die KI erst in aktuellen Dokumenten und antwortet basierend darauf. Reduziert Halluzinationen.
RLHF (Reinforcement Learning from Human Feedback)
Menschen bewerten KI-Antworten (gut/schlecht), die KI lernt daraus. So wird ChatGPT hilfreich statt nur Text zu vervollständigen.
T
Token
Die Grundeinheit die ein LLM verarbeitet. Etwa 3/4 eines Wortes. “Künstliche Intelligenz” = ca. 4 Tokens. Wichtig für Preisberechnung und Kontextfenster.
Transformer
Die Architektur hinter allen modernen LLMs. 2017 von Google erfunden (“Attention is All You Need”). Revolutionierte NLP weil Transformer Beziehungen zwischen ALLEN Wörtern gleichzeitig verstehen (nicht nur benachbarte).
Z
Zero-Shot Learning
Einer KI eine Aufgabe geben die sie nie gelernt hat – und sie löst sie trotzdem. Beispiel: Ein auf Englisch trainiertes Modell kann plötzlich Deutsch. Die grösste Überraschung bei LLMs.
Dieses Glossar wird regelmässig aktualisiert. Fehlt ein Begriff? Schreib an radar3000@wecando.ai
Weiterlesen:
