Halluzination(en) der KI-Anwendungen

KI-Systeme können falsche oder ungenaue Informationen liefern. Ein Large Language Model (LLM) erzeugt eine Antwort, indem es Wörter basierend auf ihrer Wahrscheinlichkeit im gegebenen Kontext auswählt. Dies führt nicht immer zu sinnvollen oder fachlich korrekten Ergebnissen.

Zum Seitenanfang scrollen