KI-Glossar

Ihr umfassendes Nachschlagewerk für Künstliche Intelligenz. Über 100 Begriffe verständlich erklärt – von AGI bis Zero-Shot-Learning.

📚 100+ KI-Begriffe erklärt

A-Z Filter
Zero-Shot-Learning

Die Fähigkeit von ML-Modellen, Aufgaben ohne spezifische Trainingsbeispiele zu bewältigen, oft durch Transfer von verwandten Aufgaben.

Unüberwachtes Lernen

Ein ML-Paradigma, bei dem Algorithmen Muster in Daten ohne explizite Labels oder Zielvorgaben finden.

Unstrukturierte Daten

Daten ohne vordefiniertes Format oder Organisationsschema, wie Texte, Bilder, Videos oder Audiodateien.

Turing-Test

Ein Test zur Bewertung der Intelligenz einer Maschine, bei dem beurteilt wird, ob ihre Antworten von denen eines Menschen unterscheidbar sind.

Transformer

Eine revolutionäre neuronale Netzwerkarchitektur, die auf Attention-Mechanismen basiert und die Grundlage für moderne Sprachmodelle bildet.

Transfer Learning

Eine Technik, bei der ein auf einer Aufgabe trainiertes Modell als Ausgangspunkt für eine verwandte Aufgabe verwendet wird.

Trainingsdaten

Der Datensatz, der zum Trainieren eines ML-Modells verwendet wird, enthält Input-Output-Paare oder Muster, die das Modell lernen soll.

TPU

Tensor Processing Unit – spezialisierte Chips von Google, die für die Beschleunigung von ML-Workloads optimiert sind.

Token

Die kleinste Verarbeitungseinheit in Sprachmodellen, oft Wörter, Wortteile oder Zeichen, in die Text zerlegt wird.

Symbolische KI

Ein traditioneller KI-Ansatz, der explizite Symbole und Regeln zur Wissensrepräsentation und -verarbeitung verwendet.

Strukturierte Daten

Daten, die in einem organisierten Format vorliegen, wie Tabellen oder Datenbanken, im Gegensatz zu unstrukturierten Daten wie Texten oder Bildern.

Spracherkennung

Die automatische Umwandlung gesprochener Sprache in Text durch KI-Algorithmen, Grundlage für Sprachassistenten und Diktiersoftware.

Singularität

Ein hypothetischer Punkt, an dem KI die menschliche Intelligenz übertrifft und sich selbst exponentiell verbessert, was unvorhersagbare Folgen hätte.

RLHF

Reinforcement Learning from Human Feedback – eine Methode zur Verbesserung von KI-Modellen durch menschliche Bewertungen und Feedback.

Retrieval Augmented Generation (RAG)

Eine Technik, die Sprachmodelle mit externen Wissensdatenbanken kombiniert, um genauere und aktuellere Antworten zu generieren.

Reinforcement Learning

Ein ML-Paradigma, bei dem Agenten durch Trial-and-Error lernen und Belohnungen für gewünschte Aktionen erhalten.

Prompt

Eine Eingabeaufforderung oder ein Befehl, der an ein KI-Modell gegeben wird, um eine gewünschte Antwort oder ein bestimmtes Verhalten zu erzeugen.

Predictive Analytics

Die Verwendung von Daten, statistischen Algorithmen und ML-Techniken zur Identifikation zukünftiger Ergebnisse basierend auf historischen Daten.

Overfitting

Ein Problem beim ML, bei dem ein Modell die Trainingsdaten zu genau lernt und dadurch schlechte Leistung auf neuen, ungesehenen Daten zeigt.

Neuronales Netzwerk

Ein Rechenmodell, das von der Struktur und Funktion des menschlichen Gehirns inspiriert ist und aus vernetzten Knoten (Neuronen) besteht.

NeRF

Neural Radiance Fields – eine Methode zur 3D-Rekonstruktion und zum Rendering von Szenen aus 2D-Bildern mit neuronalen Netzwerken.

Mustererkennung

Die automatische Identifikation von Regelmäßigkeiten und Strukturen in Daten durch algorithmische Methoden.

Multimodale Modelle

KI-Systeme, die verschiedene Datentypen wie Text, Bilder, Audio und Video gleichzeitig verarbeiten und verstehen können.

Modell-Drift

Die Verschlechterung der Modellleistung über Zeit aufgrund von Änderungen in den zugrundeliegenden Datenmustern oder der Umgebung.

Mixture of Experts (Expertengemisch)

Eine Modellarchitektur, die mehrere spezialisierte Teilmodelle kombiniert, wobei ein Gating-Netzwerk entscheidet, welche Experten für welche Eingaben aktiviert werden.

Metakontext und Metaprompt

Übergeordnete Kontextinformationen und Anweisungen, die das Verhalten und die Antworten von KI-Modellen steuern.

Loss Function (Verlustfunktion)

Eine mathematische Funktion, die den Unterschied zwischen den Vorhersagen eines Modells und den tatsächlichen Werten misst und als Optimierungsziel dient.

Limited Memory

Eine Kategorie von KI-Systemen, die vergangene Erfahrungen für eine begrenzte Zeit speichern und nutzen können, um aktuelle Entscheidungen zu treffen.

Latent Space (Latenter Raum)

Ein hochdimensionaler Raum, in dem ML-Modelle komprimierte Repräsentationen von Daten lernen und speichern.

Kognitives Computing

KI-Ansatz, der menschliche Denkprozesse nachahmt, um komplexe Probleme zu lösen und natürlichere Mensch-Computer-Interaktionen zu ermöglichen.

Knowledge Graph (Wissensgraph)

Eine strukturierte Darstellung von Wissen als Netzwerk von Entitäten und ihren Beziehungen, die von KI-Systemen zur Wissensrepräsentation genutzt wird.

KI-Ethik

Das Studium moralischer Fragen im Zusammenhang mit KI-Entwicklung und -Einsatz, einschließlich Fairness, Transparenz, Verantwortlichkeit und gesellschaftlicher Auswirkungen.

Instruction Tuning (Anweisungsoptimierung)

Eine Methode zur Verbesserung von Sprachmodellen durch Training auf expliziten Anweisungen, um ihre Fähigkeit zu verbessern, menschliche Befehle zu befolgen.

Hyperparameter

Konfigurationseinstellungen für ML-Algorithmen, die vor dem Training festgelegt werden und das Lernverhalten des Modells steuern.

Hidden Layer (Verborgene Schicht)

Zwischenschichten in neuronalen Netzwerken zwischen Eingabe und Ausgabe, die komplexe Muster und Repräsentationen lernen.

Guardrails

Sicherheitsmechanismen in KI-Systemen, die unerwünschtes oder schädliches Verhalten verhindern sollen. Wichtig für verantwortliche KI-Entwicklung.

Gradient Descent (Gradientenabstieg)

Ein Optimierungsalgorithmus, der die Parameter eines ML-Modells iterativ anpasst, um die Verlustfunktion zu minimieren.

GPU (Grafikprozessor)

Spezialisierte Hardware, ursprünglich für Grafikberechnungen entwickelt, die aufgrund ihrer parallelen Architektur ideal für KI-Berechnungen ist.

Foundation Model (Grundlagenmodell)

Große, auf riesigen Datenmengen vortrainierte Modelle, die als Basis für verschiedene nachgelagerte Aufgaben dienen können. Beispiele sind GPT, BERT oder CLIP.

Forward Propagation (Vorwärtspropagierung)

Der Prozess, bei dem Daten durch ein neuronales Netzwerk von der Eingabe zur Ausgabe fließen, wobei jede Schicht ihre Berechnungen durchführt.

Fine-Tuning

Der Prozess der Anpassung eines vortrainierten Modells an eine spezifische Aufgabe durch Training mit aufgabenspezifischen Daten.

Few-Shot-Learning

Die Fähigkeit von ML-Modellen, neue Aufgaben mit nur wenigen Trainingsbeispielen zu erlernen. Besonders wichtig für praktische KI-Anwendungen mit begrenzten Daten.

Expertensysteme

Frühe KI-Programme, die das Wissen und die Problemlösungsfähigkeiten menschlicher Experten in spezifischen Domänen nachahmen.

Erklärbare KI

KI-Systeme, die ihre Entscheidungsprozesse in verständlicher Weise erklären können. Wichtig für Vertrauen, Compliance und ethische KI-Anwendungen.

Entität

In der Computerlinguistik ein klar identifizierbares Objekt oder Konzept in einem Text, wie Personen, Orte, Organisationen oder Zeitangaben.

End-to-End Learning

Ein Lernansatz, bei dem ein neuronales Netzwerk direkt von Rohdaten zu Endergebnissen lernt, ohne manuell entworfene Zwischenschritte oder Feature-Engineering.

Emergentes Verhalten

Komplexe Fähigkeiten oder Verhaltensweisen, die in KI-Systemen spontan entstehen, ohne explizit programmiert worden zu sein. Oft bei Large Language Models beobachtet.

Einbettung

Die Darstellung von Wörtern, Sätzen oder anderen Objekten als numerische Vektoren in einem hochdimensionalen Raum, wobei ähnliche Objekte ähnliche Vektoren haben.

Double Descent (Doppelter Abstieg)

Ein Phänomen beim Training großer ML-Modelle, bei dem die Testleistung zunächst verschlechtert und dann wieder verbessert wird, wenn die Modellkomplexität weiter zunimmt.

Diffusion

Ein generatives Modellierungsverfahren, das durch schrittweises Hinzufügen und Entfernen von Rauschen hochqualitative Bilder, Audios oder andere Daten erzeugen kann.

Deep Learning

Ein Teilbereich des Machine Learning, der tiefe neuronale Netzwerke mit vielen Schichten verwendet, um komplexe Muster in großen Datenmengen zu lernen.

Data Science

Interdisziplinäres Feld, das statistische Methoden, Programmierung und Domänenwissen kombiniert, um Erkenntnisse aus strukturierten und unstrukturierten Daten zu gewinnen.

Data Mining

Der Prozess der Entdeckung von Mustern, Trends und Zusammenhängen in großen Datensätzen mithilfe statistischer und algorithmischer Methoden.

Computer Vision

Ein Bereich der KI, der sich mit der automatischen Extraktion, Analyse und dem Verständnis von Informationen aus visuellen Daten wie Bildern und Videos beschäftigt.

CLIP

Contrastive Language-Image Pre-training – ein Modell von OpenAI, das Text und Bilder in einem gemeinsamen Vektorraum versteht und multimodale KI-Anwendungen ermöglicht.

Chatbot

Ein KI-System, das natürlichsprachliche Konversationen mit Menschen führen kann. Moderne Chatbots nutzen Large Language Models für kontextuelle und intelligente Antworten.

Big Data

Extrem große Datensätze, die mit traditionellen Datenverarbeitungsmethoden nicht effizient analysiert werden können. Charakterisiert durch Volume, Velocity, Variety und Veracity.

Bias (Verzerrung)

Systematische Fehler oder Voreingenommenheit in KI-Modellen, die zu unfairen oder diskriminierenden Ergebnissen führen können. Ein kritisches Problem bei der Entwicklung ethischer KI-Systeme.

BERT

Bidirectional Encoder Representations from Transformers – ein revolutionäres Sprachmodell von Google, das Text bidirektional versteht und für verschiedene NLP-Aufgaben eingesetzt wird.

Auto-Vervollständigung

KI-Feature, das Benutzereingaben vorhersagt und vervollständigt. Bekannt aus Suchmaschinen, Texteditoren und Chatbots, basiert auf statistischen Sprachmodellen.

Auto-Klassifizierung

Automatische Zuordnung von Objekten oder Daten zu vordefinierten Kategorien durch ML-Algorithmen. Weit verbreitet in E-Mail-Filtern, Bilderkennungssystemen und Content-Management.

Attention (Aufmerksamkeit)

Ein Mechanismus in neuronalen Netzwerken, der es dem Modell ermöglicht, sich auf relevante Teile der Eingabe zu fokussieren. Grundlage für Transformer-Architekturen und moderne Sprachmodelle.

ASI (Künstliche Superintelligenz)

Eine hypothetische Form der KI, die die menschliche Intelligenz in allen Bereichen übertrifft. ASI würde über überlegene Fähigkeiten in wissenschaftlicher Kreativität, allgemeiner Weisheit und sozialen Fähigkeiten verfügen.

Annotation (Annotierung)

Der Prozess der Kennzeichnung und Kategorisierung von Daten für das Training von ML-Modellen. Umfasst das Hinzufügen von Labels, Tags oder anderen beschreibenden Informationen zu Datensätzen.

Anaphor

Ein sprachliches Element, das sich auf ein vorher erwähntes Wort oder eine Phrase bezieht. In der Computerlinguistik wichtig für das Verständnis von Textzusammenhängen.

Alignment (Ausrichtung)

Das Problem, KI-Systeme so zu gestalten, dass ihre Ziele und Verhaltensweisen mit menschlichen Werten und Intentionen übereinstimmen. Kritisches Forschungsgebiet für die KI-Sicherheit.

AGI (Künstliche Allgemeine Intelligenz)

Eine Form der KI, die in der Lage ist, alle kognitiven Aufgaben zu verstehen, zu lernen und anzuwenden, die ein Mensch bewältigen kann. AGI ist derzeit noch theoretisch und Gegenstand intensiver Forschung.

Agenten

Autonome KI-Systeme, die in einer Umgebung agieren und eigenständig Entscheidungen treffen können. Sie nehmen Informationen wahr, verarbeiten sie und führen Aktionen aus, um ihre Ziele zu erreichen.

Actionable Intelligence (Verwertbare Intelligenz)

Aus Daten abgeleitete Erkenntnisse, die direkt in konkrete Geschäftsentscheidungen und -maßnahmen umgesetzt werden können. Ziel vieler Business Intelligence und Analytics-Systeme.

Accuracy (Genauigkeit)

Ein Maß für die Richtigkeit eines ML-Modells, berechnet als Anteil der korrekt klassifizierten Instanzen an der Gesamtzahl der Instanzen. Wichtige Metrik zur Bewertung der Modellleistung.

Überwachtes Lernen

Ein ML-Paradigma, bei dem Algorithmen aus gelabelten Trainingsdaten lernen, um Vorhersagen für neue Eingaben zu treffen.

Zero-Shot-Extraktion

Die Fähigkeit eines Modells, Informationen aus Texten zu extrahieren, ohne spezifisch für diese Aufgabe trainiert worden zu sein.

Validierungsdaten

Ein separater Datensatz zur Bewertung der Modellleistung während des Trainings, um Hyperparameter zu optimieren und Overfitting zu vermeiden.

Underfitting

Ein Problem beim ML, bei dem ein Modell zu einfach ist, um die zugrundeliegenden Muster in den Daten zu erfassen.

TensorFlow

Ein Open-Source-Framework für maschinelles Lernen, entwickelt von Google, das für die Entwicklung und das Deployment von ML-Modellen verwendet wird.

Sentiment-Analyse

Die automatische Bestimmung der emotionalen Tonalität in Texten, oft kategorisiert als positiv, negativ oder neutral.

Regularization (Regularisierung)

Techniken zur Vermeidung von Overfitting durch Hinzufügung von Strafterms zur Verlustfunktion oder andere Constraints.

Quantum Computing

Eine revolutionäre Computertechnologie, die Quantenmechanik nutzt und potenziell bestimmte KI-Algorithmen exponentiell beschleunigen könnte.

Pre-training (Vortraining)

Der erste Trainingsschritt großer KI-Modelle auf umfangreichen Datensätzen, bevor sie für spezifische Aufgaben fine-getuned werden.

Objective Function (Zielfunktion)

Die mathematische Funktion, die ein ML-Algorithmus zu optimieren versucht, oft identisch mit der Verlustfunktion oder ihrem Negativ.

Natural Language Processing

Ein Bereich der KI, der sich mit der Interaktion zwischen Computern und menschlicher Sprache beschäftigt, einschließlich Verstehen, Generieren und Übersetzen von Text.

Maschinelles Lernen

Ein Teilgebiet der KI, bei dem Algorithmen aus Daten lernen und sich verbessern, ohne explizit für jede Aufgabe programmiert zu werden.

Large Language Model (Großes Sprachmodell)

Sehr große neuronale Netzwerke, die auf riesigen Textkorpora trainiert wurden und vielfältige sprachliche Aufgaben bewältigen können.

KI (Künstliche Intelligenz)

Computersysteme, die Aufgaben ausführen können, die normalerweise menschliche Intelligenz erfordern, wie Lernen, Problemlösung und Entscheidungsfindung.

Inference (Inferenz)

Der Prozess der Anwendung eines trainierten ML-Modells auf neue Daten, um Vorhersagen oder Klassifikationen zu treffen.

Halluzination

Das Phänomen, bei dem KI-Modelle plausible, aber faktisch falsche Informationen generieren. Ein wichtiges Problem bei Large Language Models.

Generative KI

KI-Systeme, die neue Inhalte erstellen können, wie Texte, Bilder, Musik oder Code. Basiert auf Modellen wie GANs, VAEs oder Transformern.

F-Score

Das harmonische Mittel aus Precision und Recall, verwendet zur Bewertung der Leistung von Klassifikationsmodellen, insbesondere bei unbalancierten Datensätzen.

Edge-Modell

KI-Modelle, die für die Ausführung auf Endgeräten optimiert sind, ohne Cloud-Verbindung. Bieten niedrige Latenz und Datenschutz, haben aber begrenzte Rechenressourcen.

Data Augmentation (Datenerweiterung)

Techniken zur künstlichen Vergrößerung von Trainingsdatensätzen durch Transformationen wie Rotation, Skalierung oder Rauschen, um die Robustheit von ML-Modellen zu verbessern.

Chain of Thought (Gedankenkette)

Eine Prompting-Technik, bei der KI-Modelle dazu angehalten werden, ihre Denkschritte explizit zu zeigen, um komplexe Probleme besser zu lösen und nachvollziehbare Antworten zu geben.

Back Propagation (Rückpropagierung)

Ein Lernalgorithmus für neuronale Netzwerke, bei dem Fehler vom Ausgang zum Eingang zurückpropagiert werden, um die Gewichte zu optimieren und die Modellgenauigkeit zu verbessern.

Accelerator (Beschleuniger)

Hardware-Komponenten wie GPUs oder TPUs, die speziell für die Beschleunigung von KI-Berechnungen entwickelt wurden. Sie ermöglichen eine effizientere Verarbeitung von Machine Learning Algorithmen.

Haben Sie Fragen zu KI-Begriffen?

Unser Expertenteam erklärt Ihnen gerne weitere KI-Konzepte oder berät Sie zu KI-Lösungen für Ihr Unternehmen.