KI-Glossar
Ihr umfassendes Nachschlagewerk für Künstliche Intelligenz. Über 100 Begriffe verständlich erklärt – von AGI bis Zero-Shot-Learning.
📚 100+ KI-Begriffe erklärt
Die Fähigkeit von ML-Modellen, Aufgaben ohne spezifische Trainingsbeispiele zu bewältigen, oft durch Transfer von verwandten Aufgaben.
Ein ML-Paradigma, bei dem Algorithmen Muster in Daten ohne explizite Labels oder Zielvorgaben finden.
Daten ohne vordefiniertes Format oder Organisationsschema, wie Texte, Bilder, Videos oder Audiodateien.
Ein Test zur Bewertung der Intelligenz einer Maschine, bei dem beurteilt wird, ob ihre Antworten von denen eines Menschen unterscheidbar sind.
Eine revolutionäre neuronale Netzwerkarchitektur, die auf Attention-Mechanismen basiert und die Grundlage für moderne Sprachmodelle bildet.
Eine Technik, bei der ein auf einer Aufgabe trainiertes Modell als Ausgangspunkt für eine verwandte Aufgabe verwendet wird.
Der Datensatz, der zum Trainieren eines ML-Modells verwendet wird, enthält Input-Output-Paare oder Muster, die das Modell lernen soll.
Tensor Processing Unit – spezialisierte Chips von Google, die für die Beschleunigung von ML-Workloads optimiert sind.
Die kleinste Verarbeitungseinheit in Sprachmodellen, oft Wörter, Wortteile oder Zeichen, in die Text zerlegt wird.
Ein traditioneller KI-Ansatz, der explizite Symbole und Regeln zur Wissensrepräsentation und -verarbeitung verwendet.
Daten, die in einem organisierten Format vorliegen, wie Tabellen oder Datenbanken, im Gegensatz zu unstrukturierten Daten wie Texten oder Bildern.
Die automatische Umwandlung gesprochener Sprache in Text durch KI-Algorithmen, Grundlage für Sprachassistenten und Diktiersoftware.
Ein hypothetischer Punkt, an dem KI die menschliche Intelligenz übertrifft und sich selbst exponentiell verbessert, was unvorhersagbare Folgen hätte.
Reinforcement Learning from Human Feedback – eine Methode zur Verbesserung von KI-Modellen durch menschliche Bewertungen und Feedback.
Eine Technik, die Sprachmodelle mit externen Wissensdatenbanken kombiniert, um genauere und aktuellere Antworten zu generieren.
Ein ML-Paradigma, bei dem Agenten durch Trial-and-Error lernen und Belohnungen für gewünschte Aktionen erhalten.
Eine Eingabeaufforderung oder ein Befehl, der an ein KI-Modell gegeben wird, um eine gewünschte Antwort oder ein bestimmtes Verhalten zu erzeugen.
Die Verwendung von Daten, statistischen Algorithmen und ML-Techniken zur Identifikation zukünftiger Ergebnisse basierend auf historischen Daten.
Ein Problem beim ML, bei dem ein Modell die Trainingsdaten zu genau lernt und dadurch schlechte Leistung auf neuen, ungesehenen Daten zeigt.
Ein Rechenmodell, das von der Struktur und Funktion des menschlichen Gehirns inspiriert ist und aus vernetzten Knoten (Neuronen) besteht.
Neural Radiance Fields – eine Methode zur 3D-Rekonstruktion und zum Rendering von Szenen aus 2D-Bildern mit neuronalen Netzwerken.
Die automatische Identifikation von Regelmäßigkeiten und Strukturen in Daten durch algorithmische Methoden.
KI-Systeme, die verschiedene Datentypen wie Text, Bilder, Audio und Video gleichzeitig verarbeiten und verstehen können.
Die Verschlechterung der Modellleistung über Zeit aufgrund von Änderungen in den zugrundeliegenden Datenmustern oder der Umgebung.
Eine Modellarchitektur, die mehrere spezialisierte Teilmodelle kombiniert, wobei ein Gating-Netzwerk entscheidet, welche Experten für welche Eingaben aktiviert werden.
Übergeordnete Kontextinformationen und Anweisungen, die das Verhalten und die Antworten von KI-Modellen steuern.
Eine mathematische Funktion, die den Unterschied zwischen den Vorhersagen eines Modells und den tatsächlichen Werten misst und als Optimierungsziel dient.
Eine Kategorie von KI-Systemen, die vergangene Erfahrungen für eine begrenzte Zeit speichern und nutzen können, um aktuelle Entscheidungen zu treffen.
Ein hochdimensionaler Raum, in dem ML-Modelle komprimierte Repräsentationen von Daten lernen und speichern.
KI-Ansatz, der menschliche Denkprozesse nachahmt, um komplexe Probleme zu lösen und natürlichere Mensch-Computer-Interaktionen zu ermöglichen.
Eine strukturierte Darstellung von Wissen als Netzwerk von Entitäten und ihren Beziehungen, die von KI-Systemen zur Wissensrepräsentation genutzt wird.
Das Studium moralischer Fragen im Zusammenhang mit KI-Entwicklung und -Einsatz, einschließlich Fairness, Transparenz, Verantwortlichkeit und gesellschaftlicher Auswirkungen.
Eine Methode zur Verbesserung von Sprachmodellen durch Training auf expliziten Anweisungen, um ihre Fähigkeit zu verbessern, menschliche Befehle zu befolgen.
Konfigurationseinstellungen für ML-Algorithmen, die vor dem Training festgelegt werden und das Lernverhalten des Modells steuern.
Zwischenschichten in neuronalen Netzwerken zwischen Eingabe und Ausgabe, die komplexe Muster und Repräsentationen lernen.
Sicherheitsmechanismen in KI-Systemen, die unerwünschtes oder schädliches Verhalten verhindern sollen. Wichtig für verantwortliche KI-Entwicklung.
Ein Optimierungsalgorithmus, der die Parameter eines ML-Modells iterativ anpasst, um die Verlustfunktion zu minimieren.
Spezialisierte Hardware, ursprünglich für Grafikberechnungen entwickelt, die aufgrund ihrer parallelen Architektur ideal für KI-Berechnungen ist.
Große, auf riesigen Datenmengen vortrainierte Modelle, die als Basis für verschiedene nachgelagerte Aufgaben dienen können. Beispiele sind GPT, BERT oder CLIP.
Der Prozess, bei dem Daten durch ein neuronales Netzwerk von der Eingabe zur Ausgabe fließen, wobei jede Schicht ihre Berechnungen durchführt.
Der Prozess der Anpassung eines vortrainierten Modells an eine spezifische Aufgabe durch Training mit aufgabenspezifischen Daten.
Die Fähigkeit von ML-Modellen, neue Aufgaben mit nur wenigen Trainingsbeispielen zu erlernen. Besonders wichtig für praktische KI-Anwendungen mit begrenzten Daten.
Frühe KI-Programme, die das Wissen und die Problemlösungsfähigkeiten menschlicher Experten in spezifischen Domänen nachahmen.
KI-Systeme, die ihre Entscheidungsprozesse in verständlicher Weise erklären können. Wichtig für Vertrauen, Compliance und ethische KI-Anwendungen.
In der Computerlinguistik ein klar identifizierbares Objekt oder Konzept in einem Text, wie Personen, Orte, Organisationen oder Zeitangaben.
Ein Lernansatz, bei dem ein neuronales Netzwerk direkt von Rohdaten zu Endergebnissen lernt, ohne manuell entworfene Zwischenschritte oder Feature-Engineering.
Komplexe Fähigkeiten oder Verhaltensweisen, die in KI-Systemen spontan entstehen, ohne explizit programmiert worden zu sein. Oft bei Large Language Models beobachtet.
Die Darstellung von Wörtern, Sätzen oder anderen Objekten als numerische Vektoren in einem hochdimensionalen Raum, wobei ähnliche Objekte ähnliche Vektoren haben.
Ein Phänomen beim Training großer ML-Modelle, bei dem die Testleistung zunächst verschlechtert und dann wieder verbessert wird, wenn die Modellkomplexität weiter zunimmt.
Ein generatives Modellierungsverfahren, das durch schrittweises Hinzufügen und Entfernen von Rauschen hochqualitative Bilder, Audios oder andere Daten erzeugen kann.
Ein Teilbereich des Machine Learning, der tiefe neuronale Netzwerke mit vielen Schichten verwendet, um komplexe Muster in großen Datenmengen zu lernen.
Interdisziplinäres Feld, das statistische Methoden, Programmierung und Domänenwissen kombiniert, um Erkenntnisse aus strukturierten und unstrukturierten Daten zu gewinnen.
Der Prozess der Entdeckung von Mustern, Trends und Zusammenhängen in großen Datensätzen mithilfe statistischer und algorithmischer Methoden.
Ein Bereich der KI, der sich mit der automatischen Extraktion, Analyse und dem Verständnis von Informationen aus visuellen Daten wie Bildern und Videos beschäftigt.
Contrastive Language-Image Pre-training – ein Modell von OpenAI, das Text und Bilder in einem gemeinsamen Vektorraum versteht und multimodale KI-Anwendungen ermöglicht.
Ein KI-System, das natürlichsprachliche Konversationen mit Menschen führen kann. Moderne Chatbots nutzen Large Language Models für kontextuelle und intelligente Antworten.
Extrem große Datensätze, die mit traditionellen Datenverarbeitungsmethoden nicht effizient analysiert werden können. Charakterisiert durch Volume, Velocity, Variety und Veracity.
Systematische Fehler oder Voreingenommenheit in KI-Modellen, die zu unfairen oder diskriminierenden Ergebnissen führen können. Ein kritisches Problem bei der Entwicklung ethischer KI-Systeme.
Bidirectional Encoder Representations from Transformers – ein revolutionäres Sprachmodell von Google, das Text bidirektional versteht und für verschiedene NLP-Aufgaben eingesetzt wird.
KI-Feature, das Benutzereingaben vorhersagt und vervollständigt. Bekannt aus Suchmaschinen, Texteditoren und Chatbots, basiert auf statistischen Sprachmodellen.
Automatische Zuordnung von Objekten oder Daten zu vordefinierten Kategorien durch ML-Algorithmen. Weit verbreitet in E-Mail-Filtern, Bilderkennungssystemen und Content-Management.
Ein Mechanismus in neuronalen Netzwerken, der es dem Modell ermöglicht, sich auf relevante Teile der Eingabe zu fokussieren. Grundlage für Transformer-Architekturen und moderne Sprachmodelle.
Eine hypothetische Form der KI, die die menschliche Intelligenz in allen Bereichen übertrifft. ASI würde über überlegene Fähigkeiten in wissenschaftlicher Kreativität, allgemeiner Weisheit und sozialen Fähigkeiten verfügen.
Der Prozess der Kennzeichnung und Kategorisierung von Daten für das Training von ML-Modellen. Umfasst das Hinzufügen von Labels, Tags oder anderen beschreibenden Informationen zu Datensätzen.
Ein sprachliches Element, das sich auf ein vorher erwähntes Wort oder eine Phrase bezieht. In der Computerlinguistik wichtig für das Verständnis von Textzusammenhängen.
Das Problem, KI-Systeme so zu gestalten, dass ihre Ziele und Verhaltensweisen mit menschlichen Werten und Intentionen übereinstimmen. Kritisches Forschungsgebiet für die KI-Sicherheit.
Eine Form der KI, die in der Lage ist, alle kognitiven Aufgaben zu verstehen, zu lernen und anzuwenden, die ein Mensch bewältigen kann. AGI ist derzeit noch theoretisch und Gegenstand intensiver Forschung.
Autonome KI-Systeme, die in einer Umgebung agieren und eigenständig Entscheidungen treffen können. Sie nehmen Informationen wahr, verarbeiten sie und führen Aktionen aus, um ihre Ziele zu erreichen.
Aus Daten abgeleitete Erkenntnisse, die direkt in konkrete Geschäftsentscheidungen und -maßnahmen umgesetzt werden können. Ziel vieler Business Intelligence und Analytics-Systeme.
Ein Maß für die Richtigkeit eines ML-Modells, berechnet als Anteil der korrekt klassifizierten Instanzen an der Gesamtzahl der Instanzen. Wichtige Metrik zur Bewertung der Modellleistung.
Ein ML-Paradigma, bei dem Algorithmen aus gelabelten Trainingsdaten lernen, um Vorhersagen für neue Eingaben zu treffen.
Die Fähigkeit eines Modells, Informationen aus Texten zu extrahieren, ohne spezifisch für diese Aufgabe trainiert worden zu sein.
Ein separater Datensatz zur Bewertung der Modellleistung während des Trainings, um Hyperparameter zu optimieren und Overfitting zu vermeiden.
Ein Problem beim ML, bei dem ein Modell zu einfach ist, um die zugrundeliegenden Muster in den Daten zu erfassen.
Ein Open-Source-Framework für maschinelles Lernen, entwickelt von Google, das für die Entwicklung und das Deployment von ML-Modellen verwendet wird.
Die automatische Bestimmung der emotionalen Tonalität in Texten, oft kategorisiert als positiv, negativ oder neutral.
Techniken zur Vermeidung von Overfitting durch Hinzufügung von Strafterms zur Verlustfunktion oder andere Constraints.
Eine revolutionäre Computertechnologie, die Quantenmechanik nutzt und potenziell bestimmte KI-Algorithmen exponentiell beschleunigen könnte.
Der erste Trainingsschritt großer KI-Modelle auf umfangreichen Datensätzen, bevor sie für spezifische Aufgaben fine-getuned werden.
Die mathematische Funktion, die ein ML-Algorithmus zu optimieren versucht, oft identisch mit der Verlustfunktion oder ihrem Negativ.
Ein Bereich der KI, der sich mit der Interaktion zwischen Computern und menschlicher Sprache beschäftigt, einschließlich Verstehen, Generieren und Übersetzen von Text.
Ein Teilgebiet der KI, bei dem Algorithmen aus Daten lernen und sich verbessern, ohne explizit für jede Aufgabe programmiert zu werden.
Sehr große neuronale Netzwerke, die auf riesigen Textkorpora trainiert wurden und vielfältige sprachliche Aufgaben bewältigen können.
Computersysteme, die Aufgaben ausführen können, die normalerweise menschliche Intelligenz erfordern, wie Lernen, Problemlösung und Entscheidungsfindung.
Der Prozess der Anwendung eines trainierten ML-Modells auf neue Daten, um Vorhersagen oder Klassifikationen zu treffen.
Das Phänomen, bei dem KI-Modelle plausible, aber faktisch falsche Informationen generieren. Ein wichtiges Problem bei Large Language Models.
KI-Systeme, die neue Inhalte erstellen können, wie Texte, Bilder, Musik oder Code. Basiert auf Modellen wie GANs, VAEs oder Transformern.
Das harmonische Mittel aus Precision und Recall, verwendet zur Bewertung der Leistung von Klassifikationsmodellen, insbesondere bei unbalancierten Datensätzen.
KI-Modelle, die für die Ausführung auf Endgeräten optimiert sind, ohne Cloud-Verbindung. Bieten niedrige Latenz und Datenschutz, haben aber begrenzte Rechenressourcen.
Techniken zur künstlichen Vergrößerung von Trainingsdatensätzen durch Transformationen wie Rotation, Skalierung oder Rauschen, um die Robustheit von ML-Modellen zu verbessern.
Eine Prompting-Technik, bei der KI-Modelle dazu angehalten werden, ihre Denkschritte explizit zu zeigen, um komplexe Probleme besser zu lösen und nachvollziehbare Antworten zu geben.
Ein Lernalgorithmus für neuronale Netzwerke, bei dem Fehler vom Ausgang zum Eingang zurückpropagiert werden, um die Gewichte zu optimieren und die Modellgenauigkeit zu verbessern.
Hardware-Komponenten wie GPUs oder TPUs, die speziell für die Beschleunigung von KI-Berechnungen entwickelt wurden. Sie ermöglichen eine effizientere Verarbeitung von Machine Learning Algorithmen.
Haben Sie Fragen zu KI-Begriffen?
Unser Expertenteam erklärt Ihnen gerne weitere KI-Konzepte oder berät Sie zu KI-Lösungen für Ihr Unternehmen.