
Künstliche Intelligenz 🧠 von A bis Z: Das große Glossar für Entscheider
Michael Dobler
Autor Dr. WebKünstliche Intelligenz verändert Geschäftsmodelle, Prozesse und Produkte – und bringt eine neue Fachsprache mit sich. Dieses Glossar erklärt über 88 zentrale Begriffe von Algorithmus bis Zielkonflikt. Kompakt, verständlich und auf den Punkt. Für alle, die KI-Technologien nicht nur nutzen, sondern durchdringen wollen.
Was ist Künstliche Intelligenz?
Künstliche Intelligenz (KI) bezeichnet Systeme, die in der Lage sind, Aufgaben zu lösen, die menschliche Intelligenz erfordern – darunter Lernen, Planen, Sprache verstehen oder Probleme analysieren. Im engeren Sinn spricht man von KI, wenn Maschinen Entscheidungen auf Basis von Daten treffen, ohne dafür jede einzelne Regel manuell vorzugeben. Grundlage sind meist Algorithmen, die mit großen Datenmengen trainiert wurden – etwa in der Bilderkennung, bei Sprachmodellen oder autonomen Systemen.
Warum ist KI ein beherrschendes Thema?
Künstliche Intelligenz verändert Branchen, Arbeitsprozesse und Entscheidungsfindung grundlegend. Ob in der Medizin, der Industrie, der Verwaltung oder im Marketing – KI ermöglicht Automatisierung, Mustererkennung und neue Produkte mit hoher Skalierbarkeit. Gleichzeitig wirft sie Fragen zur Kontrolle, Ethik und gesellschaftlichen Verantwortung auf. Wer die zentralen Begriffe versteht, kann Chancen besser nutzen und Risiken besser einschätzen.
Glossar Künstliche Intelligenz
Algorithmus
Ein Algorithmus ist eine Schritt-für-Schritt-Anleitung, mit der ein Computer ein Problem löst. In der Künstlichen Intelligenz bilden Algorithmen das technische Fundament für maschinelles Lernen, Bildverarbeitung oder Sprachverarbeitung. Je nach Zielsetzung können sie einfach oder hochkomplex sein – etwa bei neuronalen Netzen. Entscheidend ist, dass Algorithmen in der Lage sind, systematisch Eingabedaten zu analysieren und daraus eine passende Ausgabe zu erzeugen.
Anomalieerkennung
Anomalieerkennung ist ein KI-Verfahren, das ungewöhnliche Muster oder Ausreißer in Daten identifiziert. Sie wird etwa im Finanzwesen zur Betrugserkennung oder in der Industrie zur Früherkennung von Maschinenschäden eingesetzt. Die KI lernt, was „normal“ ist – und schlägt Alarm, wenn eine Abweichung auftritt. Die Herausforderung liegt darin, zwischen echten Anomalien und harmlosen Ausreißern zu unterscheiden.
Aufmerksamkeitsmechanismus
Ein Aufmerksamkeitsmechanismus ist ein Verfahren in der KI, das relevante Informationen innerhalb großer Datenmengen gewichtet. Besonders im Bereich der Sprachmodelle – etwa bei ChatGPT – sorgt der Mechanismus dafür, dass bestimmte Wörter, Sätze oder Kontextinformationen stärker berücksichtigt werden als andere. Der Aufmerksamkeitsmechanismus ist ein zentrales Element moderner Transformer-Modelle.
Autonomes System
Ein autonomes System ist ein technisches System, das ohne direkten menschlichen Eingriff Entscheidungen trifft und handelt. In der KI meint das z. B. autonome Fahrzeuge, Roboter oder Drohnen. Die Künstliche Intelligenz analysiert kontinuierlich Umgebungsdaten, bewertet Situationen und wählt eine Handlung aus. Dabei gelten hohe Anforderungen an Sicherheit, Ethik und Nachvollziehbarkeit.
Backpropagation
Backpropagation ist ein mathematisches Verfahren, mit dem ein neuronales Netz seine Fehler korrigiert. Es gehört zum Standardrepertoire des maschinellen Lernens. Nach einer Vorwärtsdurchlauf-Berechnung wird das Ergebnis mit dem Sollwert verglichen, und die Gewichte der Neuronen werden rückwärts angepasst. So lernt das Netz, mit jeder Iteration besser zu werden. Backpropagation ist entscheidend für das Training tiefer Netzwerke.
Bias
Bias bezeichnet eine systematische Verzerrung in KI-Systemen, die zu unfairen oder falschen Ergebnissen führen kann. Er entsteht oft durch einseitige Trainingsdaten oder durch menschliche Vorurteile, die sich in der Datenbasis widerspiegeln. In der Künstlichen Intelligenz ist Bias ein zentrales ethisches Problem – etwa bei Bewerberauswahl, Kreditvergabe oder Gesichtserkennung. Ziel ist es, Bias frühzeitig zu erkennen und zu reduzieren.
Chatbot
Ein Chatbot ist ein KI-basiertes System, das automatisierte Gespräche mit Nutzern führt – meist über Text oder Sprache. Moderne Chatbots wie ChatGPT verwenden fortschrittliche Sprachmodelle, um menschlich wirkende Antworten zu generieren. Sie finden Anwendung im Kundenservice, E-Commerce oder in interaktiven Lernsystemen. Der Vorteil: hohe Verfügbarkeit und Skalierbarkeit bei gleichbleibender Antwortqualität.
Computer Vision
Computer Vision ist ein Fachgebiet der KI, das Computern das Sehen und Verstehen von Bildern und Videos ermöglicht. Dazu zählen Objekterkennung, Bildklassifikation, Gesichtserkennung oder Bewegungsanalyse. Grundlage sind meist tiefe neuronale Netze, die auf riesigen Bilddatensätzen trainiert wurden. Computer Vision wird in der Industrie, im Gesundheitswesen oder bei autonomen Fahrzeugen eingesetzt.
Corpus
Ein Corpus ist eine strukturierte Sammlung von Texten oder Sprachdaten, die zur Analyse oder zum Training von KI-Systemen verwendet wird. Sprachmodelle wie GPT wurden mit riesigen Corpora trainiert, um Sprache statistisch zu erfassen. Ein Corpus kann aus Zeitungsartikeln, Webseiten, wissenschaftlichen Texten oder Transkripten bestehen – je vielfältiger, desto leistungsfähiger die KI.
Clustering
Clustering ist eine Technik des maschinellen Lernens, bei der Daten automatisch in Gruppen (Cluster) eingeteilt werden, ohne dass vorher Kategorien definiert werden. Das Verfahren erkennt Ähnlichkeiten zwischen Datenpunkten und ordnet sie entsprechend zu. Clustering kommt zum Einsatz bei Kundenanalysen, Bildverarbeitung oder Anomalieerkennung. Es ist ein typisches Verfahren des unüberwachten Lernens.
Data Augmentation
Data Augmentation ist eine Technik im maschinellen Lernen, bei der künstlich neue Trainingsdaten erzeugt werden, um die Qualität eines Modells zu verbessern. In der Bilderkennung werden z. B. Fotos gespiegelt, gedreht oder leicht verzerrt, um mehr Vielfalt in den Datensatz zu bringen. Die Idee: Das Modell soll robuster gegenüber Variationen werden. Data Augmentation ist besonders nützlich, wenn nur wenige Originaldaten verfügbar sind.
Datenannotation
Datenannotation bezeichnet den Prozess, bei dem Rohdaten mit Zusatzinformationen versehen werden, damit sie für maschinelles Lernen nutzbar sind. Beispielsweise werden in einem Text relevante Begriffe markiert oder in einem Bild bestimmte Objekte eingezeichnet. Ohne Datenannotation kann ein KI-Modell keine sinnvollen Muster lernen. Je präziser die Annotation, desto besser die spätere Leistung des Modells.
Decision Tree
Ein Decision Tree ist ein baumartiges Modell, das Entscheidungen auf Basis von Wenn-Dann-Regeln trifft. In der Künstlichen Intelligenz wird es häufig zur Klassifikation oder Regression eingesetzt. Jeder Knoten stellt eine Entscheidungsregel dar, jeder Ast führt zu einer weiteren Frage – bis ein Ergebnis erreicht ist. Decision Trees sind leicht interpretierbar, lassen sich aber auch zu komplexen Modellen wie Random Forests kombinieren.
Deepfake
Ein Deepfake ist ein künstlich erzeugtes oder manipuliertes Medienformat, das mit Hilfe von KI täuschend echt wirkt – z. B. ein Video mit veränderter Gesichtsbewegung oder Stimme. Grundlage sind neuronale Netzwerke, meist auf Basis von Deep Learning. Deepfakes werfen ernsthafte ethische Fragen auf, da sie zur Täuschung, Manipulation oder Rufschädigung eingesetzt werden können. Zugleich eröffnen sie auch kreative Potenziale in Film und Kunst.
Deep Learning
Deep Learning ist ein Teilbereich des maschinellen Lernens, bei dem mehrschichtige neuronale Netze komplexe Muster erkennen. Diese tiefen Netze bestehen aus vielen versteckten Schichten, die Eingabedaten schrittweise verarbeiten – etwa bei der Erkennung von Sprache, Text oder Bildern. Deep Learning gilt als eine der treibenden Kräfte hinter modernen KI-Anwendungen und wird meist mit sehr großen Datenmengen trainiert.
Domänenspezifisches Wissen
Domänenspezifisches Wissen bezeichnet Fachwissen, das für ein bestimmtes Anwendungsfeld der KI erforderlich ist – etwa medizinische Leitlinien bei Diagnosesystemen oder juristische Regeln bei Legal Tech. Ohne dieses Vorwissen bleiben viele KI-Systeme oberflächlich oder unbrauchbar. Die Integration domänenspezifischen Wissens erhöht die Relevanz, Präzision und Vertrauenswürdigkeit von KI-Lösungen deutlich.
Edge Computing
Edge Computing ist ein Konzept, bei dem Datenverarbeitung direkt am Ort der Entstehung stattfindet – etwa in einem Sensor, Fahrzeug oder Smartphone. In der Künstlichen Intelligenz ermöglicht Edge Computing schnelle Reaktionen ohne zentrale Cloud-Anbindung. So lassen sich z. B. Bildanalysen in Echtzeit durchführen, selbst bei instabiler Internetverbindung. Besonders relevant ist es für IoT-Geräte und autonome Systeme.
Explainable AI
Explainable AI (XAI) ist ein Teilbereich der Künstlichen Intelligenz, der sich mit der Verständlichkeit und Nachvollziehbarkeit von KI-Entscheidungen befasst. Ziel ist es, dass Nutzer erkennen können, warum ein System eine bestimmte Entscheidung getroffen hat. Explainable AI wird besonders wichtig bei sensiblen Anwendungen – etwa in der Medizin, Justiz oder im Finanzwesen. Sie schafft Vertrauen und ermöglicht regulatorische Kontrolle.
Feature Engineering
Feature Engineering ist der Prozess, bei dem relevante Merkmale (Features) aus Rohdaten extrahiert oder konstruiert werden, um das Training von KI-Modellen zu verbessern. Gute Features erhöhen die Aussagekraft eines Modells erheblich. Beispielsweise kann aus einem Datum das Wochentags-Feature erstellt werden. Feature Engineering ist eine kreative und entscheidende Phase im maschinellen Lernen.
Fine Tuning
Fine Tuning bezeichnet das gezielte Nachtrainieren eines bestehenden KI-Modells auf eine spezielle Aufgabe oder Domäne. Ein großes Sprachmodell wie GPT kann etwa auf juristische Fachsprache feinabgestimmt werden, um bessere Ergebnisse zu erzielen. Fine Tuning spart Ressourcen, da nicht das ganze Modell von Grund auf neu trainiert werden muss. Gleichzeitig steigert es die Relevanz und Genauigkeit für konkrete Anwendungen.
Generative KI
Generative KI beschreibt Systeme, die neue Inhalte auf Basis von Trainingsdaten erzeugen – z. B. Texte, Bilder, Musik oder Programmcode. Anders als klassische KI-Modelle, die nur analysieren oder kategorisieren, erschafft Generative KI etwas Neues. Prominente Beispiele sind Bildgeneratoren wie Midjourney oder Textmodelle wie GPT. Die Anwendungsmöglichkeiten reichen von kreativen Projekten bis zu industriellen Automatisierungslösungen.
Gezieltes Prompting
Gezieltes Prompting ist die Technik, bei der Eingaben an Sprachmodelle so gestaltet werden, dass sie präzise und nützliche Ergebnisse liefern. Der Prompt dient als Steuerbefehl für die KI. Kleine Änderungen am Prompt können große Auswirkungen auf die Antwortqualität haben. In der Praxis bedeutet gezieltes Prompting ein tiefes Verständnis darüber, wie die Künstliche Intelligenz auf Sprache reagiert.
GPT
GPT steht für „Generative Pretrained Transformer“ – ein großes Sprachmodell, das auf Milliarden von Textdaten vortrainiert wurde. GPT-Modelle wie ChatGPT analysieren den Kontext einer Eingabe und generieren darauf basierend plausible Antworten. Die Architektur basiert auf sogenannten Transformern, die durch Aufmerksamkeitsmechanismen den Kontext verstehen. GPT ist ein Meilenstein für die Entwicklung von natürlicher Sprachverarbeitung.
Halluzinieren
Halluzinieren beschreibt das Phänomen, dass ein KI-Modell inhaltlich falsche oder erfundene Aussagen erzeugt, obwohl diese sprachlich korrekt und überzeugend klingen. Besonders Sprachmodelle wie GPT neigen dazu, beim Halluzinieren Quellen, Zitate oder Fakten zu erfinden, wenn sie keine passenden Informationen haben. Dieses Verhalten stellt ein ernsthaftes Risiko für die Verlässlichkeit von KI-Systemen dar und erfordert Gegenmaßnahmen wie Quellenprüfung oder menschliche Kontrolle.
Heuristik
Eine Heuristik ist eine vereinfachte Entscheidungsregel, die in der Künstlichen Intelligenz genutzt wird, um Probleme effizient zu lösen. Sie basiert nicht auf vollständigem Wissen, sondern auf Näherungen oder Erfahrungswerten. Heuristiken sind besonders hilfreich in Situationen, in denen eine exakte Lösung zu aufwendig wäre. In der KI helfen sie etwa bei der Suche nach optimalen Entscheidungen in Spielen oder bei der Routenplanung.
Human in the Loop
Human in the Loop bezeichnet ein KI-System, bei dem der Mensch aktiv in Entscheidungsprozesse eingebunden bleibt. So können kritische Entscheidungen überprüft, angepasst oder abgelehnt werden. Dieses Prinzip erhöht Transparenz und Kontrolle – vor allem in Bereichen mit hohen Risiken, wie Medizin oder Recht. Human in the Loop ist ein zentrales Konzept zur Sicherstellung verantwortungsvoller KI-Anwendungen.
Hyperparameter
Hyperparameter sind Einstellungen, die das Verhalten und die Struktur eines KI-Modells beeinflussen, bevor es mit dem Training beginnt. Dazu zählen etwa die Lernrate, die Anzahl der Schichten oder die Größe von Batchs. Die Wahl der richtigen Hyperparameter hat großen Einfluss auf die Modellleistung. Sie werden meist durch systematische Tests oder automatisierte Optimierungsverfahren bestimmt.
Hybridmodell
Ein Hybridmodell kombiniert mehrere KI-Techniken oder verschiedene Datenquellen, um komplexe Aufgaben besser zu lösen. Ein Beispiel ist die Verbindung von regelbasierten Systemen mit neuronalen Netzen. Hybridmodelle bieten mehr Flexibilität und Genauigkeit als reine Modelle. Besonders in sicherheitskritischen Bereichen können sie die Stärken beider Welten vereinen – Transparenz auf der einen, Lernfähigkeit auf der anderen Seite.
Hallmark Task
Eine Hallmark Task ist eine repräsentative, anspruchsvolle Standardaufgabe, mit der die Leistungsfähigkeit eines KI-Modells bewertet wird. In der Sprachverarbeitung könnte das z. B. die Lösung logischer Rätsel oder das Verstehen komplexer Texte sein. Hallmark Tasks sind wichtig für Benchmarks, da sie unterschiedliche Fähigkeiten wie Argumentation, Kontextverstehen oder Faktenwissen abprüfen.
Hebb’sches Lernen
Hebb’sches Lernen ist ein biologisch inspiriertes Lernprinzip, bei dem die Verbindung zweier Neuronen gestärkt wird, wenn sie gleichzeitig aktiv sind. Der Leitsatz lautet: „Neurons that fire together, wire together.“ In der Künstlichen Intelligenz wurde dieses Prinzip früh für einfache neuronale Netzwerke übernommen. Es bildet die Grundlage vieler Lernmechanismen, obwohl moderne Netze komplexere Verfahren wie Backpropagation nutzen.
Inferenz
Inferenz bezeichnet den Prozess, bei dem ein trainiertes KI-Modell neue Eingabedaten verarbeitet, um daraus Vorhersagen oder Entscheidungen abzuleiten. Während das Training die Lernphase ist, beginnt mit der Inferenz die Anwendung. Bei Sprachmodellen wie GPT bedeutet Inferenz, dass auf eine Texteingabe eine möglichst passende Antwort generiert wird. Geschwindigkeit und Effizienz der Inferenz sind entscheidend für die Praxisnutzung.
Instanzbasiertes Lernen
Instanzbasiertes Lernen ist eine Methode, bei der neue Eingaben mit gespeicherten Beispielen verglichen werden, statt ein abstrahiertes Modell zu verwenden. Das bekannteste Verfahren ist der k-Nächste-Nachbarn-Algorithmus. Instanzbasiertes Lernen funktioniert besonders gut bei klar strukturierten, wenig verrauschten Daten – etwa in der Bilderkennung oder bei einfachen Klassifikationsaufgaben.
Intelligente Agenten
Intelligente Agenten sind autonome Systeme, die ihre Umgebung wahrnehmen, analysieren und darauf reagieren, um ein definiertes Ziel zu erreichen. Sie agieren oft in dynamischen Kontexten – etwa als virtuelle Assistenten, Robotersysteme oder Entscheidungsunterstützung in Software. In der Künstlichen Intelligenz gelten intelligente Agenten als zentrales Paradigma für anpassungsfähiges Verhalten und strategisches Handeln.
Interaktives Lernen
Interaktives Lernen bezeichnet ein Verfahren, bei dem ein KI-System gezielt Rückmeldungen von Menschen einholt, um sein Modell zu verbessern. Dabei kann der Mensch etwa falsch klassifizierte Beispiele korrigieren oder besonders schwierige Fälle markieren. Interaktives Lernen steigert die Effizienz des Trainings, weil nicht alle Daten vorab annotiert werden müssen – sondern nur diejenigen, die das System aktuell am meisten weiterbringen.
Interpretierbarkeit
Interpretierbarkeit meint die Fähigkeit, die Entscheidungen eines KI-Modells nachvollziehen zu können – insbesondere, warum es zu einem bestimmten Ergebnis gekommen ist. Während einfache Modelle wie Entscheidungsbäume oft leicht zu erklären sind, gelten neuronale Netze als Blackbox. Interpretierbarkeit ist ein zentrales Thema in der KI-Ethik, insbesondere bei sensiblen Anwendungen wie Medizin oder Justiz.
Kausalität
Kausalität beschreibt Ursache-Wirkungs-Zusammenhänge – also was passiert, weil etwas anderes passiert ist. In der Künstlichen Intelligenz ist Kausalität schwerer zu erfassen als Korrelation, da viele Modelle lediglich Zusammenhänge erkennen, aber keine tatsächlichen Ursachen ermitteln können. Für robuste, vertrauenswürdige Entscheidungen wird jedoch die Fähigkeit zur Erfassung von Kausalität zunehmend wichtig.
Klassifikation
Klassifikation ist ein grundlegendes Verfahren in der KI, bei dem Daten in vordefinierte Kategorien eingeordnet werden. Beispiele sind Spam-Erkennung bei E-Mails oder die Unterscheidung von Krankheitsbildern in der Medizin. Klassifikation erfolgt durch trainierte Modelle, die auf Basis von Merkmalen eine Entscheidung treffen. Dabei ist wichtig, dass die Kategorien zuvor eindeutig definiert wurden.
Knoten
Ein Knoten ist ein elementarer Bestandteil eines neuronalen Netzes, in dem eine bestimmte Berechnung ausgeführt wird. Knoten empfangen Signale, gewichten sie und geben das Ergebnis an die nächste Schicht weiter. In der bildlichen Darstellung sieht ein neuronales Netz aus wie ein Geflecht aus vielen Knoten – daher der Begriff „Netzwerk“. Jeder Knoten trägt zur Gesamtleistung des Modells bei.
Kontextverständnis
Kontextverständnis beschreibt die Fähigkeit eines KI-Modells, Bedeutung im Zusammenhang zu erfassen – z. B. bei mehrdeutigen Wörtern oder komplexen Textbezügen. Ein Beispiel: „Bank“ kann ein Finanzinstitut oder eine Sitzgelegenheit sein. Erst der Kontext klärt die Bedeutung. Modelle mit gutem Kontextverständnis liefern relevantere, konsistentere und „menschlichere“ Antworten.
Konfidenzintervall
Ein Konfidenzintervall ist ein statistischer Bereich, der angibt, mit welcher Sicherheit ein bestimmter Wert innerhalb einer Spanne liegt. In der Künstlichen Intelligenz hilft das Konfidenzintervall, die Unsicherheit von Vorhersagen zu quantifizieren – z. B. bei medizinischen Diagnosen oder Risikoabschätzungen. Es ist ein wichtiges Werkzeug zur Bewertung der Modellgüte und Entscheidungszuverlässigkeit.
Label
Ein Label ist eine zugeordnete Kategorie oder Zielvariable, die beim überwachtem Lernen als Referenz dient. Zum Beispiel kann ein Bild das Label „Hund“ oder „Katze“ tragen. Das KI-Modell lernt, anhand von Merkmalen diese Zuordnung selbst vorzunehmen. Labels sind essenziell für Trainingsdaten und bestimmen, wie genau ein System später klassifizieren kann.
Lernrate
Die Lernrate ist ein Hyperparameter, der bestimmt, wie stark ein KI-Modell seine Gewichte pro Trainingsschritt anpasst. Ist die Lernrate zu hoch, konvergiert das Modell möglicherweise nicht; ist sie zu niedrig, dauert das Training sehr lange. Die Wahl der richtigen Lernrate ist entscheidend für effizientes und stabiles Lernen – insbesondere bei tiefen neuronalen Netzen.
Lineare Regression
Lineare Regression ist ein klassisches Verfahren der Vorhersageanalyse, bei dem eine kontinuierliche Zielgröße anhand linearer Zusammenhänge zwischen Variablen geschätzt wird. In der KI wird sie oft als Basisverfahren eingesetzt – etwa zur Einschätzung von Preisen oder Nachfrageverläufen. Trotz ihrer Einfachheit liefert lineare Regression oft solide Ergebnisse bei klaren Datenstrukturen.
Lokales Minimum
Ein lokales Minimum ist ein Punkt im Optimierungsprozess, an dem die Fehlerfunktion zwar kleiner ist als in der direkten Umgebung, aber nicht unbedingt den global niedrigsten Wert erreicht. In der Künstlichen Intelligenz ist das relevant beim Training neuronaler Netze: Das Modell kann in einem lokalen Minimum „stecken bleiben“ und dadurch suboptimale Leistung erzielen. Techniken wie Momentum helfen, dieses Problem zu vermeiden.
Loss Function
Die Loss Function – oder Verlustfunktion – misst die Abweichung zwischen vorhergesagtem und tatsächlichem Ergebnis eines KI-Modells. Sie ist das zentrale Steuerinstrument beim Training. Je höher der Loss, desto schlechter die Leistung – und desto stärker werden die Modellparameter angepasst. Unterschiedliche Aufgaben erfordern unterschiedliche Loss Functions, etwa Kreuzentropie bei Klassifikation oder mittlerer Fehler bei Regression.
Machine Vision
Machine Vision ist ein KI-Anwendungsfeld, bei dem Computer visuelle Informationen verarbeiten, analysieren und interpretieren, ähnlich wie das menschliche Sehen. Typische Einsatzfelder sind Qualitätskontrolle in der Produktion, Verkehrsüberwachung oder medizinische Bildanalyse. Machine Vision kombiniert Bildverarbeitung mit maschinellem Lernen, um automatisierte Entscheidungen auf Basis von Bildern oder Videos zu treffen.
Maschinelles Lernen
Maschinelles Lernen ist ein Teilbereich der Künstlichen Intelligenz, bei dem Computer aus Daten lernen, ohne explizit programmiert zu sein. Statt starrer Regeln wird ein Modell trainiert, das Muster erkennt, Vorhersagen trifft oder Entscheidungen trifft. Maschinelles Lernen ist die Grundlage für viele moderne KI-Systeme – etwa in der Bilderkennung, Sprachverarbeitung oder Prognosemodellierung.
Meta Learning
Meta Learning, oft als „Lernen zu lernen“ bezeichnet, ist ein Ansatz, bei dem ein KI-System Strategien erwirbt, um neue Aufgaben schneller zu bewältigen. Statt jedes Mal bei null zu starten, nutzt es Erfahrung aus früheren Lernprozessen. Meta Learning ist besonders relevant, wenn nur wenige Trainingsdaten vorliegen oder sich Aufgaben schnell ändern – etwa in der personalisierten Medizin oder Robotik.
Metrik
Eine Metrik ist ein quantitatives Maß zur Bewertung der Leistung eines KI-Modells. Je nach Anwendung kommen unterschiedliche Metriken zum Einsatz – z. B. Genauigkeit, Präzision, F1-Score oder ROC-AUC. Die Auswahl der passenden Metrik hängt vom Kontext ab: In der medizinischen Diagnose etwa ist eine hohe Sensitivität oft wichtiger als reine Genauigkeit. Metriken machen KI-Ergebnisse messbar und vergleichbar.
Modellkomplexität
Modellkomplexität beschreibt den Grad an Struktur, Tiefe und Parametern in einem KI-Modell. Ein komplexes Modell kann viele Details erfassen, läuft aber Gefahr, sich zu stark an Trainingsdaten anzupassen (Overfitting). Ein zu einfaches Modell dagegen erfasst wichtige Zusammenhänge möglicherweise nicht. Ziel ist ein gutes Gleichgewicht zwischen Modellkomplexität und Generalisierungsfähigkeit.
Neuronales Netz
Ein neuronales Netz ist ein mathematisches Modell, das grob an die Struktur des menschlichen Gehirns angelehnt ist. Es besteht aus Schichten von Knoten (Neuronen), die Eingaben verarbeiten, gewichten und an weitere Knoten weitergeben. Neuronale Netze lernen aus Beispielen, indem sie ihre Verbindungsstärken (Gewichte) anpassen. Sie bilden das Fundament vieler KI-Anwendungen, von Spracherkennung bis Bildanalyse.
NLP (Natural Language Processing)
Natural Language Processing (NLP) ist der Bereich der KI, der sich mit der Analyse, Verarbeitung und Generierung natürlicher Sprache befasst. Dazu gehören Aufgaben wie Textklassifikation, maschinelle Übersetzung, Named Entity Recognition oder Sentimentanalyse. Sprachmodelle wie GPT gehören ebenfalls zum NLP. Ziel ist es, Maschinen zu ermöglichen, Sprache so zu verstehen und zu erzeugen, dass sie für Menschen nützlich ist.
Overfitting
Overfitting bezeichnet ein Phänomen, bei dem ein KI-Modell die Trainingsdaten zu genau lernt – inklusive Rauschen und Ausnahmen – und dadurch bei neuen Daten versagt. Das Modell ist dann zwar auf den Trainingsdaten sehr genau, generalisiert aber schlecht. Overfitting lässt sich durch Techniken wie Regularisierung, Cross-Validation oder einfachere Modelle vermeiden. Es ist ein zentrales Problem beim maschinellen Lernen.
Overparameterisierung
Overparameterisierung tritt auf, wenn ein Modell mehr Parameter hat, als zur Lösung der Aufgabe nötig wären. Das kann die Rechenzeit verlängern, die Interpretierbarkeit verschlechtern und Overfitting begünstigen. In Deep-Learning-Modellen ist Overparameterisierung jedoch nicht immer negativ – oft helfen zusätzliche Parameter, komplexe Muster zu erkennen. Entscheidend ist die Balance zwischen Modellgröße und Datenmenge.
Pipeline
Eine Pipeline ist ein standardisierter Ablauf von Verarbeitungsschritten, mit dem KI-Systeme Daten vorbereiten, Modelle trainieren und Ergebnisse generieren. Typische Bestandteile sind Datenbereinigung, Feature Engineering, Modelltraining und Auswertung. Eine gute Pipeline sorgt für Reproduzierbarkeit, Skalierbarkeit und effiziente Automatisierung im gesamten KI-Prozess.
Preprocessing
Preprocessing bezeichnet die Vorverarbeitung von Rohdaten, bevor sie in ein KI-Modell eingespeist werden. Ziel ist es, aus unstrukturierten oder verrauschten Daten eine saubere, strukturierte Basis zu machen – z. B. durch Normalisierung, Tokenisierung oder das Entfernen von Ausreißern. Preprocessing beeinflusst maßgeblich die Qualität und Leistung eines KI-Modells und ist daher ein essenzieller Arbeitsschritt.
Predictive Analytics
Predictive Analytics ist ein KI-gestützter Ansatz zur Vorhersage zukünftiger Ereignisse auf Basis historischer Daten. Unternehmen nutzen Predictive Analytics etwa zur Absatzprognose, zur Wartungsplanung oder zur Bewertung von Kreditrisiken. Dahinter stehen meist statistische Modelle, maschinelles Lernen oder Deep Learning. Die Qualität der Vorhersage hängt stark von der Datenbasis und der Modellwahl ab.
Prompt Engineering
Prompt Engineering ist die gezielte Gestaltung von Eingabeaufforderungen (Prompts), um optimale Ergebnisse aus generativen Sprachmodellen zu erhalten. Der Prompt wirkt wie eine Aufgabenbeschreibung – je klarer und präziser, desto besser die Antwort. Prompt Engineering hat sich zu einem neuen Kompetenzfeld entwickelt, insbesondere im Umgang mit Modellen wie GPT, Claude oder Gemini.
Prognosemodell
Ein Prognosemodell ist ein KI-Modell, das entwickelt wurde, um zukünftige Entwicklungen vorherzusagen – etwa Umsatzkurven, Kundennachfrage oder Maschinenverschleiß. Je nach Fragestellung kommen Regressionsverfahren, Zeitreihenanalysen oder neuronale Netze zum Einsatz. Ein gutes Prognosemodell hilft, Entscheidungen datenbasiert abzusichern und Risiken frühzeitig zu erkennen.
Prompt Tuning
Prompt Tuning ist eine Technik, bei der feste Prompts trainiert werden, um ein vortrainiertes Sprachmodell auf eine spezielle Aufgabe oder Domäne zu optimieren – ohne dabei das Modell selbst zu verändern. Es ist ressourcenschonender als Fine Tuning und eignet sich besonders für Szenarien, in denen viele Aufgaben mit minimalem Aufwand angepasst werden sollen. Prompt Tuning gewinnt in der Praxis zunehmend an Bedeutung.
Quantisierung
Quantisierung ist ein Verfahren, bei dem die Genauigkeit von Modellparametern reduziert wird, um Rechenleistung und Speicherplatz zu sparen. Statt mit 32-Bit-Floats arbeiten quantisierte Modelle etwa mit 8-Bit-Zahlen. In der Künstlichen Intelligenz ermöglicht Quantisierung den Einsatz komplexer Modelle auf mobilen Geräten oder Mikrocontrollern – oft bei nur geringem Qualitätsverlust.
Reinforcement Learning
Reinforcement Learning ist eine Lernmethode, bei der ein Agent durch Versuch und Irrtum lernt, in einer Umgebung optimale Entscheidungen zu treffen. Belohnungen oder Bestrafungen steuern den Lernprozess. Typische Anwendungen finden sich bei Robotik, Spielstrategien oder autonomem Fahren. Reinforcement Learning ist besonders effektiv bei Problemen mit vielen Handlungsoptionen und langfristiger Planung.
Regularisierung
Regularisierung ist eine Technik zur Vermeidung von Overfitting, bei der während des Trainings ein Strafterm auf komplexe Modelle angewendet wird. Dadurch werden übermäßige Gewichtungen im Modell vermieden. Bekannte Verfahren sind L1- und L2-Regularisierung. Ziel ist ein Modell, das nicht nur die Trainingsdaten, sondern auch unbekannte Eingaben gut verarbeitet – also besser generalisiert.
Retrieval-Augmented Generation
Retrieval-Augmented Generation (RAG) kombiniert Textgenerierung mit gezielter Informationssuche. Vor dem eigentlichen Antwortprozess wird eine externe Datenbank abgefragt – z. B. Dokumente, Webseiten oder Wissensbasen. Die Ergebnisse fließen in die Antwort der KI ein. RAG erhöht die Aktualität, Faktenbasis und Relevanz generativer Modelle deutlich, insbesondere im professionellen Einsatz.
Robustheit
Robustheit beschreibt die Fähigkeit eines KI-Systems, auch unter schwierigen Bedingungen verlässliche Ergebnisse zu liefern – etwa bei verrauschten Daten, leichten Störungen oder ungewöhnlichen Eingaben. Ein robustes Modell lässt sich nicht leicht durch minimale Veränderungen aus dem Gleichgewicht bringen. Robustheit ist besonders wichtig in sicherheitskritischen oder dynamischen Umgebungen.
Schwellenwert
Ein Schwellenwert ist ein fester Grenzwert, bei dessen Überschreiten oder Unterschreiten eine Entscheidung getroffen wird. In Klassifikationsmodellen entscheidet der Schwellenwert etwa, ob ein Ergebnis als positiv oder negativ gilt. Die Wahl des Schwellenwerts beeinflusst Metriken wie Präzision oder Sensitivität und muss je nach Anwendung sorgfältig gewählt werden.
Selbstüberwachtes Lernen
Selbstüberwachtes Lernen (Self-Supervised Learning) ist ein Ansatz, bei dem ein KI-Modell aus Rohdaten lernt, ohne dass manuelle Labels nötig sind. Das System erzeugt eigene Aufgaben – z. B. Lücken in Texten ergänzen oder Bildteile rekonstruieren – und lernt daraus. Dieses Verfahren gilt als Schlüssel zu skalierbarem maschinellen Lernen, da es große, unstrukturierte Datenmengen effizient nutzbar macht.
Sensitivität
Sensitivität ist eine Metrik zur Bewertung der Trefferquote eines KI-Modells bei positiven Fällen – etwa: „Wie viele tatsächliche Kranke erkennt ein Diagnosesystem?“ Eine hohe Sensitivität bedeutet, dass wenige relevante Fälle übersehen werden. Sie ist besonders wichtig in Bereichen mit hohem Risiko – z. B. in der Medizin oder der Betrugserkennung.
Stochastik
Stochastik ist die mathematische Grundlage für Wahrscheinlichkeitsrechnung und Statistik – und damit ein zentraler Baustein für viele KI-Verfahren. Zufall spielt bei Training, Datenaufteilung oder Modellentscheidungen eine große Rolle. Ohne ein solides Verständnis der Stochastik lassen sich viele KI-Modelle weder entwickeln noch zuverlässig interpretieren.
Supervised Learning
Supervised Learning ist eine Lernmethode, bei der ein KI-Modell mit beschrifteten Daten trainiert wird – d. h. zu jedem Input ist das gewünschte Ergebnis bekannt. Das Modell lernt, Eingaben mit den richtigen Ausgaben zu verknüpfen. Supervised Learning ist die meistgenutzte Methode im maschinellen Lernen und kommt in Bereichen wie Bilderkennung, Betrugserkennung oder Spracherkennung zum Einsatz.
Tokenisierung
Tokenisierung ist der Prozess, bei dem Text in kleinere Einheiten – sogenannte Tokens – zerlegt wird, damit ein KI-Modell ihn verarbeiten kann. Ein Token kann ein Wort, eine Silbe oder sogar nur ein Zeichen sein – je nach Modellarchitektur. In der Sprachverarbeitung ist Tokenisierung ein grundlegender Schritt, denn sie bestimmt, wie ein Modell Sprache „liest“ und versteht.
Trainingsdaten
Trainingsdaten sind die Datenbasis, mit der ein KI-Modell trainiert wird. Sie enthalten Eingaben und – je nach Lernmethode – auch die passenden Ausgaben oder Labels. Qualität, Vielfalt und Relevanz der Trainingsdaten bestimmen maßgeblich die spätere Leistungsfähigkeit eines Modells. Fehlerhafte oder einseitige Trainingsdaten führen oft zu Bias oder unzuverlässigen Ergebnissen.
Transferlernen
Transferlernen ist ein Verfahren, bei dem ein bereits vortrainiertes Modell auf eine neue, verwandte Aufgabe angepasst wird. So muss das System nicht bei null beginnen, sondern nutzt vorhandenes Wissen weiter. Transferlernen spart Rechenressourcen und ermöglicht gute Ergebnisse mit vergleichsweise wenig neuen Daten – zum Beispiel bei der Anpassung eines Sprachmodells auf juristische Fachsprache.
Transformermodell
Ein Transformermodell ist eine moderne KI-Architektur, die besonders effektiv bei der Verarbeitung von Sequenzen wie Text ist. Es nutzt Aufmerksamkeitsmechanismen, um relevante Kontextinformationen zu gewichten – unabhängig von ihrer Position. Transformermodelle wie GPT, BERT oder T5 haben die Verarbeitung natürlicher Sprache revolutioniert und sind heute Standard in vielen KI-Anwendungen.
Transparenz
Transparenz bedeutet in der Künstlichen Intelligenz, dass die Entscheidungen, Abläufe und Grundlagen eines KI-Systems nachvollziehbar sind – sowohl für Entwickler als auch für Nutzer. Transparente Systeme zeigen auf, wie ein Ergebnis zustande kam, welche Daten verwendet wurden und welche Regeln im Spiel sind. In sensiblen Bereichen wie Justiz oder Medizin ist Transparenz eine Grundvoraussetzung für Vertrauen.
Turing-Test
Der Turing-Test ist ein klassisches Verfahren zur Beurteilung, ob eine Maschine menschenähnliches Verhalten zeigt. Besteht eine KI den Test, kann sie in einem Textdialog nicht mehr eindeutig von einem Menschen unterschieden werden. Der Test wurde 1950 von Alan Turing vorgeschlagen und ist heute eher symbolisch – moderne Systeme wie ChatGPT übertreffen ihn bereits in vielen Szenarien.
Unüberwachtes Lernen
Unüberwachtes Lernen ist ein KI-Ansatz, bei dem Modelle ohne vorgegebene Zielwerte Muster oder Strukturen in Daten erkennen. Statt mit Labels arbeiten diese Modelle rein explorativ – etwa bei Clusterbildung, Dimensionsreduktion oder Anomalieerkennung. Unüberwachtes Lernen eignet sich besonders für große, unstrukturierte Datenmengen, bei denen keine klare Zielvorgabe existiert.
Validierung
Validierung ist ein Prüfverfahren, mit dem die Leistung eines KI-Modells während oder nach dem Training bewertet wird – meist mit Daten, die das Modell vorher nicht gesehen hat. Ziel ist es, die Generalisierungsfähigkeit zu testen und Überanpassung zu vermeiden. Die Validierung ist zentral für die Modelloptimierung und hilft, objektiv zwischen verschiedenen Varianten zu entscheiden.
Varianz
Varianz beschreibt in der KI die Empfindlichkeit eines Modells gegenüber Veränderungen in den Trainingsdaten. Ein Modell mit hoher Varianz passt sich sehr genau an – läuft aber Gefahr, Overfitting zu erzeugen. Niedrige Varianz deutet auf ein eher „stures“ Modell hin, das wenig aus den Daten lernt. Die richtige Balance zwischen Varianz und Verzerrung (Bias) ist entscheidend für robuste Modelle.
Verallgemeinerung
Verallgemeinerung ist die Fähigkeit eines KI-Modells, auch auf unbekannte Daten sinnvolle Vorhersagen zu treffen. Ein Modell, das nur bei Trainingsdaten gut funktioniert, aber bei neuen Daten versagt, hat keine gute Verallgemeinerung. Sie ist das zentrale Ziel beim maschinellen Lernen – denn nur wer verallgemeinert, kann sinnvoll automatisieren, skalieren und produktiv arbeiten.
Wahrnehmungsmodell
Ein Wahrnehmungsmodell ist ein KI-System, das Sinneseindrücke analysiert und interpretiert, meist visuelle oder akustische Signale. In der Robotik oder bei autonomen Fahrzeugen erkennen Wahrnehmungsmodelle z. B. Objekte, Bewegungen oder Hindernisse. Die Fähigkeit, die Umwelt präzise zu erfassen, ist essenziell für reaktives, intelligentes Verhalten – in Echtzeit und oft unter unsicheren Bedingungen.
Weights
Weights sind die gewichteten Verbindungsstärken zwischen Neuronen in einem neuronalen Netz. Sie bestimmen, wie stark ein Eingangssignal in die Berechnung der nächsten Schicht einfließt. Während des Trainings werden die Weights so angepasst, dass das Modell immer bessere Vorhersagen trifft. Weights sind somit das „Gedächtnis“ des Modells – sie speichern, was das System gelernt hat.
Wissensgraph
Ein Wissensgraph ist eine strukturierte Repräsentation von Wissen in Form von Knoten und Kanten, die Entitäten und deren Beziehungen abbilden. In der Künstlichen Intelligenz ermöglicht ein Wissensgraph etwa die Verknüpfung von Kontextinformationen in Suchmaschinen oder Chatbots. Er macht Fakten maschinenlesbar und unterstützt logisches Schließen und Abfragen auf semantischer Ebene.
Wortvektor
Ein Wortvektor ist eine mathematische Darstellung eines Wortes als Punkt in einem mehrdimensionalen Raum. Dabei werden semantisch ähnliche Wörter automatisch näher beieinander platziert. Wortvektoren wie Word2Vec oder GloVe ermöglichen es Sprachmodellen, Bedeutung, Kontext und Beziehung zwischen Begriffen zu erfassen – nicht als Definition, sondern als Muster in Zahlenform.
XAI (eXplainable Artificial Intelligence)
XAI steht für erklärbare Künstliche Intelligenz – also Systeme, deren Entscheidungen für Menschen nachvollziehbar sind. Ziel von XAI ist es, Vertrauen zu schaffen, regulatorische Anforderungen zu erfüllen und Risiken besser zu kontrollieren. Techniken wie Entscheidungsbäume, Feature-Visualisierung oder lokale Erklärmodelle helfen dabei, auch komplexe Modelle wie neuronale Netze besser zu verstehen.
YAML
YAML ist eine leicht lesbare Auszeichnungssprache, die häufig zur Konfiguration von KI-Modellen, Datenpipelines oder Trainingsparametern verwendet wird. Im Gegensatz zu JSON oder XML legt YAML den Fokus auf Klarheit und einfache Struktur. YAML-Dateien steuern z. B. Hyperparameter, Datenpfade oder Modellvarianten – insbesondere in Deep-Learning-Frameworks wie PyTorch oder TensorFlow.
Zielvariable
Die Zielvariable ist die Größe, die ein KI-Modell vorhersagen oder klassifizieren soll. Sie ist das „Ergebnis“, das beim Training als bekannt vorausgesetzt wird. In einem Modell zur Kreditbewertung wäre die Zielvariable z. B. „wird Kredit zurückgezahlt: ja oder nein“. Die Qualität der Zielvariable bestimmt maßgeblich die Güte des gesamten Modells – ungenaue Zielwerte führen zu schlechten Vorhersagen.
Zeitreihenanalyse
Zeitreihenanalyse ist ein Verfahren zur Modellierung und Prognose von Daten, die in chronologischer Reihenfolge vorliegen – etwa Aktienkurse, Wetterdaten oder Maschinensensoren. KI-Modelle wie LSTM-Netze (Long Short-Term Memory) sind besonders gut für Zeitreihen geeignet. Die Analyse erkennt Trends, Saisonalität und Ausreißer – oft mit dem Ziel, zukünftige Entwicklungen vorherzusagen.
Zero-Shot Learning
Zero-Shot Learning ist die Fähigkeit eines KI-Modells, neue Aufgaben zu bewältigen, ohne dafür explizit trainiert worden zu sein. Stattdessen nutzt es vorhandenes Wissen über ähnliche Konzepte. Ein Sprachmodell kann etwa Fragen zu einem neuen Thema beantworten, ohne dieses Thema je gesehen zu haben. Zero-Shot Learning ist besonders wertvoll, wenn keine gelabelten Trainingsdaten vorliegen.
Zustandsraum
Ein Zustandsraum beschreibt alle möglichen Konfigurationen oder Situationen, die ein KI-System annehmen oder durchlaufen kann. In der Robotik, Spieltheorie oder Planung spielt der Zustandsraum eine zentrale Rolle – etwa beim Navigieren durch eine Umgebung. Die Größe und Struktur des Zustandsraums beeinflussen, wie komplex eine Aufgabe für die KI ist und wie effizient sie gelöst werden kann.
Zum Newsletter anmelden
Kommen Sie wie über 6.000 andere Abonnenten in den Genuss des Dr. Web Newsletters. Als Dankeschön für Ihre Anmeldung erhalten Sie das große Dr. Web Icon-Set: 970 Icons im SVG-Format – kostenlos.
Schreibe einen Kommentar