Die KI-Welt steckt voller Fachbegriffe. Dieses Glossar erklärt die 30 wichtigsten – verständlich, auf Deutsch, mit Beispielen.

A

AGI (Artificial General Intelligence)

Eine KI die ALLES kann was ein Mensch kann – denken, lernen, kreativ sein, Probleme lösen. Existiert noch nicht. Aktuelle KIs (ChatGPT, Claude) sind “narrow AI” – stark in bestimmten Aufgaben, aber kein echtes Verständnis.

API (Application Programming Interface)

Eine Schnittstelle über die Programme mit KI-Modellen kommunizieren. Beispiel: Eine App nutzt die ChatGPT-API um Kundenfragen automatisch zu beantworten.

Alignment

Das Problem sicherzustellen dass eine KI das tut was Menschen WOLLEN – nicht nur was sie SAGEN. Anthropic (Claude) fokussiert sich stark auf Alignment. Beispiel: Eine KI soll nicht nur korrekte Antworten geben, sondern auch sichere und hilfreiche.

C

Chatbot

Ein Programm das in natürlicher Sprache mit Menschen kommuniziert. ChatGPT, Claude und Gemini sind fortgeschrittene Chatbots. Der Unterschied zu früheren Chatbots: LLMs verstehen Kontext und Nuancen.

Context Window (Kontextfenster)

Wie viel Text eine KI gleichzeitig “sehen” kann. GPT-4o: 128K Tokens. Claude: 200K+ Tokens. Je grösser, desto längere Dokumente kann die KI verarbeiten.

Constitutional AI

Anthropics Methode Claude “Regeln” beizubringen (hilfreich, harmlos, ehrlich). Statt nur aus Nutzerfeedback zu lernen, bekommt Claude eine “Verfassung” die sein Verhalten steuert.

D

Deep Learning

Eine Methode des maschinellen Lernens mit künstlichen neuronalen Netzen die viele Schichten (“deep”) haben. Die Grundlage aller modernen KI-Modelle.

Diffusion Model

Die Technik hinter KI-Bildgeneratoren wie Midjourney und DALL-E. Startet mit Rauschen und entfernt es schrittweise, bis ein Bild entsteht – wie eine Skulptur aus Marmor meisseln.

E

Embedding

Eine numerische Darstellung von Text (oder Bildern) als Vektor. Ermöglicht es KIs, Ähnlichkeiten zu erkennen. “Hund” und “Katze” haben ähnliche Embeddings, “Hund” und “Buchhaltung” nicht.

F

Few-Shot Learning

Einer KI ein paar Beispiele geben damit sie das Muster versteht. “Schreib so wie in diesen 3 Beispielen.” Funktioniert erstaunlich gut bei LLMs.

Fine-Tuning

Ein vortrainiertes Modell auf spezifische Daten nachtrainieren. Beispiel: Ein allgemeines LLM auf medizinische Texte feinabstimmen für bessere Arzt-Antworten.

G

Generative AI

KI die NEUES erstellt: Texte, Bilder, Musik, Code, Videos. ChatGPT, Midjourney, Suno – alles generative AI. Im Gegensatz zu analytischer KI die bestehende Daten auswertet.

GPT (Generative Pre-trained Transformer)

OpenAIs Modellreihe. GPT-4o ist die aktuelle Version hinter ChatGPT. “Generative” = erzeugt Text, “Pre-trained” = auf riesigen Datenmengen vortrainiert, “Transformer” = die Architektur.

H

Halluzination

Wenn eine KI überzeugend klingende aber FALSCHE Informationen generiert. Das grösste Problem aktueller LLMs. Beispiel: Die KI erfindet ein Studienergebnis das nicht existiert.

I

Inference

Der Prozess wenn eine KI eine Antwort generiert. Im Gegensatz zu “Training” (wo das Modell lernt). Jedes Mal wenn du ChatGPT eine Frage stellst, ist das Inference.

L

LLM (Large Language Model)

Ein grosses Sprachmodell – die Technologie hinter ChatGPT, Claude und Co. Mehr Details in unserem Artikel: Was ist ein LLM?

M

Machine Learning (Maschinelles Lernen)

Der Oberbegriff für Algorithmen die aus Daten lernen statt explizit programmiert zu werden. Deep Learning ist eine Unterform von Machine Learning.

Model (Modell)

Die “Software” die gelernt hat aus Daten Vorhersagen zu machen. GPT-4o, Claude Opus 4, Llama 3 – das sind alles Modelle. Wie ein Gehirn das trainiert wurde.

Multimodal

Eine KI die verschiedene Medientypen versteht: Text, Bilder, Audio, Video. GPT-4o ist multimodal – du kannst Text schreiben, Bilder hochladen und Sprache nutzen.

N

Neural Network (Neuronales Netz)

Von Gehirn-Neuronen inspirierte Software-Architektur. Besteht aus Schichten von “Neuronen” die Informationen verarbeiten. Die Grundlage von Deep Learning.

NLP (Natural Language Processing)

Verarbeitung natürlicher Sprache durch Computer. Alles von Autokorrektur bis ChatGPT ist NLP.

O

Open Source

KI-Modelle deren Code öffentlich ist. Llama 3 (Meta), Mistral, Stable Diffusion – jeder kann sie herunterladen und nutzen. Gegensatz: Closed Source (GPT-4, Claude).

P

Parameter

Die “Gehirnzellen” eines KI-Modells. Mehr Parameter = mehr Wissen. GPT-4: geschätzt 1.7 Billionen. Llama 3: 405 Milliarden. Je mehr, desto besser (und teurer).

Prompt

Die Eingabe die du einer KI gibst. Die Qualität deines Prompts bestimmt die Qualität der Antwort. Mehr dazu: Prompt Engineering: 10 Tipps

Prompt Engineering

Die Kunst, Prompts so zu formulieren dass KIs optimale Ergebnisse liefern. Eine gefragte Fähigkeit auf dem Arbeitsmarkt.

R

RAG (Retrieval Augmented Generation)

Eine Technik die LLMs mit externen Datenquellen verbindet. Statt nur aus dem Training zu antworten, sucht die KI erst in aktuellen Dokumenten und antwortet basierend darauf. Reduziert Halluzinationen.

RLHF (Reinforcement Learning from Human Feedback)

Menschen bewerten KI-Antworten (gut/schlecht), die KI lernt daraus. So wird ChatGPT hilfreich statt nur Text zu vervollständigen.

T

Token

Die Grundeinheit die ein LLM verarbeitet. Etwa 3/4 eines Wortes. “Künstliche Intelligenz” = ca. 4 Tokens. Wichtig für Preisberechnung und Kontextfenster.

Transformer

Die Architektur hinter allen modernen LLMs. 2017 von Google erfunden (“Attention is All You Need”). Revolutionierte NLP weil Transformer Beziehungen zwischen ALLEN Wörtern gleichzeitig verstehen (nicht nur benachbarte).

Z

Zero-Shot Learning

Einer KI eine Aufgabe geben die sie nie gelernt hat – und sie löst sie trotzdem. Beispiel: Ein auf Englisch trainiertes Modell kann plötzlich Deutsch. Die grösste Überraschung bei LLMs.


Dieses Glossar wird regelmässig aktualisiert. Fehlt ein Begriff? Schreib an radar3000@wecando.ai


Weiterlesen: