KI-Glossar
Es gibt 15 Namen in diesem Verzeichnis, die mit dem Buchstaben L beginnen.
Label Noise
Fehlerhafte oder inkonsistente Datenbeschriftungen, die zu fehlerhaften Lernsignalen führen können.
Labeled Dataset
Ein Datensatz, in dem jedem Beispiel korrekte Kategorien oder Attribute zugeordnet sind, was für überwachte Lernverfahren essenziell ist.
Latent Code
Ein kompakter Vektor im latenten Raum, der die zugrunde liegenden, abstrakten Merkmale eines Datenelements repräsentiert.
Latent Consistency
Das Prinzip, dass ähnliche Eingaben in einen konsistenten Bereich des latenten Raums abgebildet werden, sodass stabile generative Ergebnisse erzielt werden.
Latent Diffusion Model (LDM)
Ein Modell, das den diffusionsbasierten Generierungsprozess in einem reduzierten latenten Raum durchführt, um den Rechenaufwand zu senken.
Latent Guidance
Die gezielte Nutzung latenter Informationen, um den Generationsprozess in einem Modell präzise zu steuern.
Latent Noise
Zufällige Störungen im latenten Raum, die eingeführt werden, um die Diversität der generierten Inhalte zu erhöhen.
Latent Space
Ein abstrakter Raum, in dem Daten als kompakte Vektoren dargestellt werden, sodass semantische Beziehungen abgebildet und verglichen werden können.
Layer Normalization
Eine Technik, die die Eingaben innerhalb einer Schicht normalisiert, um den Trainingsprozess zu stabilisieren.
Learning Rate Scheduler
Ein Mechanismus, der die Lernrate während des Trainings dynamisch anpasst, um in verschiedenen Trainingsphasen optimale Fortschritte zu erzielen.
Lexica.art
Eine Online-Plattform, die als Inspirationsquelle und Suchmaschine für KI-generierte Bilder sowie zugehörige Prompts dient.
LoRA (Low-Rank Adaptation)
Eine Methode, bei der ein vortrainiertes Modell durch niedrig-rangige Anpassungen effizient an neue Aufgaben angepasst wird, wodurch Ressourcen gespart werden.
LORA Weight Merge
Der Prozess, bei dem die mittels LoRA angepassten Gewichte in das ursprüngliche Modell integriert werden, um eine einheitliche Architektur zu erzielen.
Loss Function
Eine mathematische Funktion, die den Unterschied zwischen den Vorhersagen eines Modells und den tatsächlichen Werten misst und als Optimierungskriterium dient.