{"id":12991,"date":"2024-09-20T10:15:15","date_gmt":"2024-09-20T08:15:15","guid":{"rendered":"https:\/\/www.iese.fraunhofer.de\/blog\/?p=12991"},"modified":"2024-09-30T13:39:02","modified_gmt":"2024-09-30T11:39:02","slug":"halluzinationen-generative-ki-llm","status":"publish","type":"post","link":"https:\/\/www.iese.fraunhofer.de\/blog\/halluzinationen-generative-ki-llm\/","title":{"rendered":"Halluzinationen von generativer KI und gro\u00dfen Sprachmodellen (LLMs)"},"content":{"rendered":"<p class=\"lead\">Generative K\u00fcnstliche Intelligenz (KI) und insbesondere Large Language Models (LLMs) haben das Potenzial, unsere Interaktion mit Technologie und Wissensmanagement grundlegend zu ver\u00e4ndern. Generative KI-Modelle sind in der Lage, menschen\u00e4hnliche Inhalte (Text, Bilder, Audio, Video) zu erzeugen, was sie f\u00fcr viele Anwendungen n\u00fctzlich macht. Sie sind jedoch nicht frei von Schw\u00e4chen. Ein zentrales Problem sind KI-Halluzinationen, die sowohl die Zuverl\u00e4ssigkeit der Modelle als auch ihre praktische Anwendbarkeit gef\u00e4hrden.<\/p>\n<h2>Was sind KI-Halluzinationen?<\/h2>\n<p>Halluzinationen im Zusammenhang mit KI beziehen sich auf von einem KI-Modell generierte Inhalte, die zwar realistisch erscheinen, aber von den vorgegebenen Quelleninputs abweichen. Man spricht von fehlender \u00dcbereinstimmung (faithfulness) oder mangelnder faktischer Richtigkeit (factualness).<\/p>\n<h3>Beispiele f\u00fcr Halluzinationen bei KI<\/h3>\n<figure id=\"attachment_12993\" aria-describedby=\"caption-attachment-12993\" style=\"width: 400px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-12993 size-medium\" src=\"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/09\/generated_hands_dalle3_small-400x400.png\" alt=\"Beispiel KI Halluzination von verschr\u00e4nkten H\u00e4nden erstellt mit Dalle 3\" width=\"400\" height=\"400\" srcset=\"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/09\/generated_hands_dalle3_small-400x400.png 400w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/09\/generated_hands_dalle3_small-150x150.png 150w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/09\/generated_hands_dalle3_small-32x32.png 32w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/09\/generated_hands_dalle3_small-50x50.png 50w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/09\/generated_hands_dalle3_small-64x64.png 64w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/09\/generated_hands_dalle3_small-96x96.png 96w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/09\/generated_hands_dalle3_small-128x128.png 128w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/09\/generated_hands_dalle3_small-65x65.png 65w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/09\/generated_hands_dalle3_small.png 512w\" sizes=\"auto, (max-width: 400px) 100vw, 400px\" \/><figcaption id=\"caption-attachment-12993\" class=\"wp-caption-text\">Halluzinierende KI bei der Darstellung von H\u00e4nden. Quelle: Dall-E 3. Prompt: &#8222;human hands close up, interlaced fingers&#8220;. Die Modellausgabe entspricht der Benutzeranweisung (Prompt), ist aber faktisch nicht korrekt, da je Hand zu viele Finger dargestellt werden.<\/figcaption><\/figure>\n<figure id=\"attachment_12995\" aria-describedby=\"caption-attachment-12995\" style=\"width: 400px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-12995 size-medium\" src=\"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/09\/chat_gpt_o_mini_ansers-400x235.png\" alt=\"KI Halluzination, Textausgabe, LLM gibt eine eindeutig falsche Antwort\" width=\"400\" height=\"235\" srcset=\"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/09\/chat_gpt_o_mini_ansers-400x235.png 400w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/09\/chat_gpt_o_mini_ansers.png 432w\" sizes=\"auto, (max-width: 400px) 100vw, 400px\" \/><figcaption id=\"caption-attachment-12995\" class=\"wp-caption-text\">Ein klassischer Test, um bei einem LLM Halluzinationen hervorzurufen (Originalidee: <a href=\"https:\/\/www.youtube.com\/@matthew_berman\" target=\"_blank\" rel=\"noopener\">Matthew Berman Youtube Chanel<\/a>). In diesem Fall entspricht die Antwort des Modells nicht der Benutzeranweisung (Prompt).<\/figcaption><\/figure>\n<p>Solche Halluzinationen k\u00f6nnen in kritischen Bereichen wie der Medizin oder dem Rechtssystem schwerwiegende Folgen haben, wenn falsche Informationen f\u00fcr wahr gehalten werden.<\/p>\n<h2>Ursachen von Halluzinationen bei KI-Modellen<\/h2>\n<p>Es gibt mehrere Faktoren, die zum Auftreten von Halluzinationen beitragen:<\/p>\n<ul>\n<li>die Trainingsdaten,<\/li>\n<li>die Art und Weise, wie das Modell trainiert wird (Trainingsmethoden),<\/li>\n<li>die Art und Weise, wie das Modell Inhalte generiert (Inferenz).<\/li>\n<\/ul>\n<h3>Trainingsdaten:<\/h3>\n<p>Fehlerhafte Datenquellen spielen eine zentrale Rolle. Trainingsdaten k\u00f6nnen Ungenauigkeiten oder Stereotypen enthalten, die zu einer fehlerhaften Repr\u00e4sentation der Realit\u00e4t f\u00fchren. Ohne geeignete Vorsichtsma\u00dfnahmen erzeugen datenbasierte L\u00f6sungen Verzerrungen (siehe z.B.<a href=\"#ref1\">[1]<\/a>).<\/p>\n<p>Sind die Trainingsdaten nicht aktuell, werden neuere Entwicklungen oder Erkenntnisse nicht ber\u00fccksichtigt. Dies schr\u00e4nkt die Relevanz und Genauigkeit der Antworten erheblich ein.<\/p>\n<p>Ein weiterer Aspekt ist die Fachspezifik. Oft enth\u00e4lt das Trainingsdaten-Set kein spezialisiertes Wissen. Dies kann zu KI-Halluzinationen f\u00fchren. Das Modell hat nicht die n\u00f6tigen Informationen, um pr\u00e4zise Antworten zu geben.<\/p>\n<p>Dies wird durch die unzureichende Nutzung von Faktenwissen noch verst\u00e4rkt. Die Modelle st\u00fctzen sich h\u00e4ufig auf Korrelationen statt auf kausale Effekte. Dies f\u00fchrt zu oberfl\u00e4chlichen Analysen. Bei komplexen Fragestellungen k\u00f6nnen diese Abk\u00fcrzungen falsche oder irref\u00fchrende Ergebnissen erzeugen.<\/p>\n<p>Das \u00bbNeedle in a Haystack\u00ab-Problem tritt auf, wenn relevante Fakten in einer gro\u00dfen Datenmenge versteckt sind. Ein Beispiel daf\u00fcr sind umfangreichen Bibliographien. Das Modell hat dann Schwierigkeiten, die richtigen Informationen zu filtern. Komplexe Szenarien, wie Multi-hop Q&amp;A, zeigen die Grenzen der Schlussfolgerungsf\u00e4higkeit. Das passiert selbst dann, wenn alle notwendigen Informationen vorhanden sind.<\/p>\n<h3>Trainingsmethoden:<\/h3>\n<p>Bei den Trainingsmethoden sind mehrere Faktoren zu ber\u00fccksichtigen. Schwachstellen in der Architektur, wie\u00a0 z.B. \u00bbAttention Glitches\u00ab, k\u00f6nnen zu Inkonsistenzen in den Ergebnissen f\u00fchren. Dar\u00fcber hinaus gibt es Unterschiede zwischen den Trainings- und Inferenzstrategien, die als \u00bbExposure Bias\u00ab bekannt sind und dazu f\u00fchren, dass das Modell in der Praxis nicht optimal arbeitet.<\/p>\n<p>Auch die Anpassung durch \u00bbFine-Tuning\u00ab und \u00bbInstructions-Tuning\u00ab, wie z.B. \u00bbReinforcement Learning through Human Feedback\u00ab (RHLF), hat ebenfalls ihre Grenzen. Ein Beispiel daf\u00fcr ist das Ph\u00e4nomen der \u00bbSycophancy\u00ab, bei dem das Modell \u00fcberm\u00e4\u00dfig dazu neigt, den Erwartungen der Nutzer zu entsprechen, statt objektive Informationen zu liefern <a href=\"#ref2\">[2]<\/a>.<\/p>\n<h3>Inferenz:<\/h3>\n<p>Inferenz in der KI bezieht sich auf den Prozess, bei dem ein trainiertes Modell verwendet wird, um Vorhersagen zu treffen oder Entscheidungen auf Basis neuer Daten zu treffen. Zum Beispiel, wenn man ChatGPT benutzt, um eine Frage zu stellen, wird das Modell benutzt, um eine Antwort auf der Basis des eingegebenen Textes zu generieren (dies ist die &#8222;Inferenzzeit&#8220;).<\/p>\n<p>Die Inferenzmethoden spielen eine entscheidende Rolle. Die Dekodierungsstrategien sind h\u00e4ufig stochastisch. W\u00e4hrend Token-Sequenzen mit hoher Wahrscheinlichkeit zu beispielsweisen schlechten Texten f\u00fchren (die sogenannte \u00bbLikelihood-Trap\u00ab), kann eine zu starke Randomisierung zu Halluzinationen f\u00fchren, da das Modell unplausible Inhalte produziert.<\/p>\n<p>Es gibt verschiedene Token-Typen, die Halluzinationen in Sprachmodellen verursachen k\u00f6nnen. Zum Beispiel k\u00f6nnen \u00e4hnliche numerische Werte wie Preise (9,99 EUR; 10,00 EUR), nahe beieinander liegende Daten (2020, 2021), \u00e4hnlich klingende Namen, oder technische Begriffe und Abk\u00fcrzungen (KI, ML) problematisch sein. Diese Token-Typen haben h\u00e4ufig \u00e4hnliche Wahrscheinlichkeiten, was die Auswahl des korrekten Tokens erschwert.<\/p>\n<p>Ph\u00e4nomene wie \u00bbOver Confidence\u00ab und \u00bbInstruction Forgetting\u00ab beschreiben, wie das Modell zu stark auf lokale W\u00f6rter fokussiert und dabei den Gesamtzusammenhang verliert. Der \u00bbSoftmax Bottleneck\u00ab stellt eine technische Limitierung dar, die die Vielfalt der generierten Antworten einschr\u00e4nkt.<\/p>\n<h2>KI-Halluzinationen erkennen<\/h2>\n<p>Das Erkennen von Halluzinationen ist entscheidend f\u00fcr die Verbesserung der Genauigkeit und Zuverl\u00e4ssigkeit der erzeugten Antworten. Das Erkennen von Halluzinationen ist nicht trivial, und verschiedene Strategien sind m\u00f6glich.<\/p>\n<h3>Unsicherheit messen:<\/h3>\n<p>Die Unsicherheit der Antwort kann zun\u00e4chst durch eine Analyse der Wahrscheinlichkeiten der generierten Token bewertet werden. Wie oben erw\u00e4hnt, kann dies Informationen dar\u00fcber liefern, ob eine andere Antwort ebenfalls sehr wahrscheinlich oder weniger wahrscheinlich w\u00e4re.<\/p>\n<p>Andere Methoden zur Bewertung der Unsicherheit basieren auf Stichprobenverfahren, wie z. B. \u00bbSelf-Consistency\u00ab. Dabei werden mehrere Antworten auf eine Abfrage erzeugt und analysiert, um zu beurteilen, ob das LLM immer \u00e4hnliche oder v\u00f6llig unterschiedliche Antworten auf dieselbe Frage ausgegeben h\u00e4tte.<\/p>\n<h3>Fakten pr\u00fcfen:<\/h3>\n<p>Eine weitere Methode zum Erkennen von Halluzinationen ist die Faktenpr\u00fcfung. Dazu werden die Ergebnisse des Sprachmodells mit einer Wissensdatenbank oder den Benutzereingaben verglichen werden. Dies kann helfen, falsche Informationen zu identifizieren und zu korrigieren. Auch hier sind verschiedene Strategien m\u00f6glich. Grunds\u00e4tzlich wird die Modellausgabe (z.B. Text bei LLM) mit vorhandenen Fakten (ebenfalls Text oder Wissensgraph) verglichen. Dies kann \u00fcber klassische NLP-Vergleichsmetriken (z.B. BLEU, ROUGE, etc.), \u00fcber semantische \u00c4hnlichkeit oder \u00fcber die Pr\u00fcfung, ob bestimmte faktische Entit\u00e4ten oder Entit\u00e4tsbeziehungen (Ort, Datum, Organisationsname etc.) vorhanden sind, erfolgen. Andere Ans\u00e4tze verwenden ein zweites (oder mehrere) LLM(s) als eine Art Pr\u00fcfer, um Antworten und Fakten zu vergleichen.<\/p>\n<h2>L\u00f6sungsans\u00e4tze zur Vermeidung von KI-Halluzinationen<\/h2>\n<p>Um das Problem von KI-Halluzinationen zu bew\u00e4ltigen, sind verschiedene Strategien erforderlich. Eine vielversprechende Ma\u00dfnahme ist die sorgf\u00e4ltige Datenaufbereitung, die Deduplizierung und Debiasing umfasst. Dar\u00fcber hinaus sollte das Training der KI-Modelle\u00a0 durch gezielte Architekturanpassungen verbessert werden. Solche L\u00f6sungen sind jedoch nur f\u00fcr Organisationen anwendbar, die generativen KI-Modell selbst trainieren.<\/p>\n<p>Eine weitere Strategie besteht darin, den Ursprung der Halluzinationen in den Gewichten des Modells zu verstehen und das Modell zu \u00bbreparieren\u00ab. Diese Anpassung des trainierten Modells wird als \u00bbKnowledge Editing\u00ab oder \u00bbRepresentation Engineering\u00ab bezeichnet und ist derzeit ein Forschungsansatz, der noch keine breite Anwendung gefunden hat.<\/p>\n<p>Ein praktischerer Ansatz ist die Verwendung von Prompting-Techniken wie \u00bbChain of Thoughts\u00ab oder Architekturen wie \u00bbRetrieval Augmented Generation\u00ab (RAG), bei denen LLMs mit externen Wissensdatenbanken verbunden werden. Dies erh\u00f6ht die Genauigkeit der generierten Informationen. In der RAG-Architektur werden die St\u00e4rken von LLMs f\u00fcr die Sprachverarbeitung genutzt, w\u00e4hrend das Sammeln von Fakten und das Ziehen von Schlussfolgerungen spezialisierten Werkzeugen \u00fcberlassen wird.<\/p>\n<div class=\"info-box\">\n<h3>Mehr zum Thema LLM und Gen AI<\/h3>\n<ul>\n<li><strong><a href=\"https:\/\/www.iese.fraunhofer.de\/blog\/retrieval-augmented-generation-rag\/\" target=\"_blank\" rel=\"noopener\">Retrieval Augmented Generation (RAG)<\/a>:<\/strong> Chatten mit den eigenen Daten<\/li>\n<li><strong><a href=\"https:\/\/www.iese.fraunhofer.de\/blog\/was-ist-prompt-engineering\/\" target=\"_blank\" rel=\"noopener\">Prompt Engineering<\/a>:<\/strong> Wie man mit gro\u00dfen Sprachmodellen kommuniziert<\/li>\n<\/ul>\n<\/div>\n<p>Insgesamt ist das Erforschen der Halluzinationen von LLMs von entscheidender Bedeutung, um die Zuverl\u00e4ssigkeit dieser Technologien zu verbessern. Da sich LLMs schnell weiterentwickeln, \u00e4ndern sich auch die Methoden zum Erkennen und Vermeiden von Halluzinationen st\u00e4ndig. Unsere Expertinnen und Experten k\u00f6nnen Ihnen helfen, die besten Strategien f\u00fcr Ihre LLM-basierten Anwendungen zu entwickeln.<\/p>\n<p>&nbsp;<\/p>\n<h2>Referenzen<\/h2>\n<p><a name=\"ref1\"><\/a>[1] Bolukbasi, Tolga, et al. &#8222;Man is to computer programmer as woman is to homemaker? debiasing word embeddings.&#8220; <i>Advances in neural information processing systems<\/i> 29 (2016).<\/p>\n<p><a name=\"ref2\"><\/a>[2] Zhao, Yunpu, et al. &#8222;Towards Analyzing and Mitigating Sycophancy in Large Vision-Language Models.&#8220; <i>arXiv preprint arXiv:2408.11261<\/i> (2024).<\/p>\n<p>[3] Ji, Ziwei, et al. &#8222;Survey of hallucination in natural language generation.&#8220; ACM Computing Surveys 55.12 (2023): 1-38.<\/p>\n<p>[4] Huang, Lei, et al. &#8222;A survey on hallucination in large language models: Principles, taxonomy, challenges, and open questions.&#8220; arXiv preprint arXiv:2311.05232 (2023).<\/p>\n<p>[5] Ye, Hongbin, et al. &#8222;Cognitive mirage: A review of hallucinations in large language models.&#8220; arXiv preprint arXiv:2309.06794 (2023).<\/p>\n<p>[6] Rawte, Vipula, Amit Sheth, and Amitava Das. &#8222;A survey of hallucination in large foundation models.&#8220; arXiv preprint arXiv:2309.05922 (2023).<\/p>\n<p>[7] Zhang, Yue, et al. &#8222;Siren&#8217;s song in the AI ocean: a survey on hallucination in large language models.&#8220; arXiv preprint arXiv:2309.01219 (2023).<\/p>\n<p>[8] Tonmoy, S. M., et al. &#8222;A comprehensive survey of hallucination mitigation techniques in large language models.&#8220; arXiv preprint arXiv:2401.01313 (2024).<\/p>\n<p>[9] Liu, Hanchao, et al. &#8222;A survey on hallucination in large vision-language models.&#8220; arXiv preprint arXiv:2402.00253 (2024).<\/p>\n<p>[10] Bai, Zechen, et al. &#8222;Hallucination of multimodal large language models: A survey.&#8220; arXiv preprint arXiv:2404.18930 (2024).<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Generative K\u00fcnstliche Intelligenz (KI) und insbesondere Large Language Models (LLMs) haben das Potenzial, unsere Interaktion mit Technologie und Wissensmanagement grundlegend zu ver\u00e4ndern. Generative KI-Modelle sind in der Lage, menschen\u00e4hnliche Inhalte (Text, Bilder, Audio, Video) zu erzeugen, was sie f\u00fcr viele&#8230;<\/p>\n","protected":false},"author":66,"featured_media":13005,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[211,177],"tags":[415,584,587],"coauthors":[214],"class_list":["post-12991","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-digitale-transformation","category-kuenstliche-intelligenz","tag-dependable-ai-verlaessliche-ki","tag-generative-ai","tag-large-language-models-llm"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.5 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Halluzinationen von generativer KI und gro\u00dfen Sprachmodellen (LLMs) - Blog des Fraunhofer IESE<\/title>\n<meta name=\"description\" content=\"Wie entstehen KI-Halluzinationen bei generativer KI und gro\u00dfen Sprachmodellen (LLM) und wie kann man falsche Ergebnisse vermeiden?\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.iese.fraunhofer.de\/blog\/halluzinationen-generative-ki-llm\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Halluzinationen von generativer KI und gro\u00dfen Sprachmodellen (LLMs) - Blog des Fraunhofer IESE\" \/>\n<meta property=\"og:description\" content=\"Wie entstehen KI-Halluzinationen bei generativer KI und gro\u00dfen Sprachmodellen (LLM) und wie kann man falsche Ergebnisse vermeiden?\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.iese.fraunhofer.de\/blog\/halluzinationen-generative-ki-llm\/\" \/>\n<meta property=\"og:site_name\" content=\"Fraunhofer IESE\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/FraunhoferIESE\/\" \/>\n<meta property=\"article:published_time\" content=\"2024-09-20T08:15:15+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-09-30T11:39:02+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/09\/generated_panorama_small.png\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"405\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Dr. Julien Siebert\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@FraunhoferIESE\" \/>\n<meta name=\"twitter:site\" content=\"@FraunhoferIESE\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr. Julien Siebert\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"7\u00a0Minuten\" \/>\n\t<meta name=\"twitter:label3\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data3\" content=\"Dr. Julien Siebert\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/halluzinationen-generative-ki-llm\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/halluzinationen-generative-ki-llm\\\/\"},\"author\":{\"name\":\"Dr. Julien Siebert\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#\\\/schema\\\/person\\\/96d3d2ce62a13a8ee470ea948601ff28\"},\"headline\":\"Halluzinationen von generativer KI und gro\u00dfen Sprachmodellen (LLMs)\",\"datePublished\":\"2024-09-20T08:15:15+00:00\",\"dateModified\":\"2024-09-30T11:39:02+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/halluzinationen-generative-ki-llm\\\/\"},\"wordCount\":1430,\"publisher\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/halluzinationen-generative-ki-llm\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2024\\\/09\\\/generated_panorama_small.png\",\"keywords\":[\"Dependable AI \\\/ Verl\u00e4ssliche KI\",\"generative ai\",\"Large Language Models (LLM)\"],\"articleSection\":[\"Digitale Transformation\",\"K\u00fcnstliche Intelligenz\"],\"inLanguage\":\"de\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/halluzinationen-generative-ki-llm\\\/\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/halluzinationen-generative-ki-llm\\\/\",\"name\":\"Halluzinationen von generativer KI und gro\u00dfen Sprachmodellen (LLMs) - Blog des Fraunhofer IESE\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/halluzinationen-generative-ki-llm\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/halluzinationen-generative-ki-llm\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2024\\\/09\\\/generated_panorama_small.png\",\"datePublished\":\"2024-09-20T08:15:15+00:00\",\"dateModified\":\"2024-09-30T11:39:02+00:00\",\"description\":\"Wie entstehen KI-Halluzinationen bei generativer KI und gro\u00dfen Sprachmodellen (LLM) und wie kann man falsche Ergebnisse vermeiden?\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/halluzinationen-generative-ki-llm\\\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/halluzinationen-generative-ki-llm\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/halluzinationen-generative-ki-llm\\\/#primaryimage\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2024\\\/09\\\/generated_panorama_small.png\",\"contentUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2024\\\/09\\\/generated_panorama_small.png\",\"width\":1024,\"height\":405,\"caption\":\"KI Halluzination einer Landschaft mit Dall-E 3\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/halluzinationen-generative-ki-llm\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Startseite\",\"item\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Halluzinationen von generativer KI und gro\u00dfen Sprachmodellen (LLMs)\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#website\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/\",\"name\":\"Fraunhofer IESE\",\"description\":\"Blog des Fraunhofer-Institut f\u00fcr Experimentelles Software Engineering\",\"publisher\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#organization\",\"name\":\"Fraunhofer IESE\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2016\\\/08\\\/fhg_iese_logo.png\",\"contentUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2016\\\/08\\\/fhg_iese_logo.png\",\"width\":183,\"height\":50,\"caption\":\"Fraunhofer IESE\"},\"image\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/www.facebook.com\\\/FraunhoferIESE\\\/\",\"https:\\\/\\\/x.com\\\/FraunhoferIESE\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/fraunhoferiese\\\/\",\"https:\\\/\\\/www.youtube.com\\\/c\\\/FraunhoferIESE\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#\\\/schema\\\/person\\\/96d3d2ce62a13a8ee470ea948601ff28\",\"name\":\"Dr. Julien Siebert\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2020\\\/10\\\/siebert_julien_8513_blog-96x96.jpg299e210bdf5631c16552ac66c10e3e56\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2020\\\/10\\\/siebert_julien_8513_blog-96x96.jpg\",\"contentUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2020\\\/10\\\/siebert_julien_8513_blog-96x96.jpg\",\"caption\":\"Dr. Julien Siebert\"},\"description\":\"Julien Siebert is working as senior AI Expert in the Data Science department of Fraunhofer IESE. He studied Artificial Intelligence and Engineering Science and got his PhD in Computer Science. His professional interests include data science processes, artificial intelligence and complex systems.\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/author\\\/julien-siebert\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Halluzinationen von generativer KI und gro\u00dfen Sprachmodellen (LLMs) - Blog des Fraunhofer IESE","description":"Wie entstehen KI-Halluzinationen bei generativer KI und gro\u00dfen Sprachmodellen (LLM) und wie kann man falsche Ergebnisse vermeiden?","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.iese.fraunhofer.de\/blog\/halluzinationen-generative-ki-llm\/","og_locale":"de_DE","og_type":"article","og_title":"Halluzinationen von generativer KI und gro\u00dfen Sprachmodellen (LLMs) - Blog des Fraunhofer IESE","og_description":"Wie entstehen KI-Halluzinationen bei generativer KI und gro\u00dfen Sprachmodellen (LLM) und wie kann man falsche Ergebnisse vermeiden?","og_url":"https:\/\/www.iese.fraunhofer.de\/blog\/halluzinationen-generative-ki-llm\/","og_site_name":"Fraunhofer IESE","article_publisher":"https:\/\/www.facebook.com\/FraunhoferIESE\/","article_published_time":"2024-09-20T08:15:15+00:00","article_modified_time":"2024-09-30T11:39:02+00:00","og_image":[{"width":1024,"height":405,"url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/09\/generated_panorama_small.png","type":"image\/png"}],"author":"Dr. Julien Siebert","twitter_card":"summary_large_image","twitter_creator":"@FraunhoferIESE","twitter_site":"@FraunhoferIESE","twitter_misc":{"Verfasst von":"Dr. Julien Siebert","Gesch\u00e4tzte Lesezeit":"7\u00a0Minuten","Written by":"Dr. Julien Siebert"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/halluzinationen-generative-ki-llm\/#article","isPartOf":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/halluzinationen-generative-ki-llm\/"},"author":{"name":"Dr. Julien Siebert","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#\/schema\/person\/96d3d2ce62a13a8ee470ea948601ff28"},"headline":"Halluzinationen von generativer KI und gro\u00dfen Sprachmodellen (LLMs)","datePublished":"2024-09-20T08:15:15+00:00","dateModified":"2024-09-30T11:39:02+00:00","mainEntityOfPage":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/halluzinationen-generative-ki-llm\/"},"wordCount":1430,"publisher":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#organization"},"image":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/halluzinationen-generative-ki-llm\/#primaryimage"},"thumbnailUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/09\/generated_panorama_small.png","keywords":["Dependable AI \/ Verl\u00e4ssliche KI","generative ai","Large Language Models (LLM)"],"articleSection":["Digitale Transformation","K\u00fcnstliche Intelligenz"],"inLanguage":"de"},{"@type":"WebPage","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/halluzinationen-generative-ki-llm\/","url":"https:\/\/www.iese.fraunhofer.de\/blog\/halluzinationen-generative-ki-llm\/","name":"Halluzinationen von generativer KI und gro\u00dfen Sprachmodellen (LLMs) - Blog des Fraunhofer IESE","isPartOf":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/halluzinationen-generative-ki-llm\/#primaryimage"},"image":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/halluzinationen-generative-ki-llm\/#primaryimage"},"thumbnailUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/09\/generated_panorama_small.png","datePublished":"2024-09-20T08:15:15+00:00","dateModified":"2024-09-30T11:39:02+00:00","description":"Wie entstehen KI-Halluzinationen bei generativer KI und gro\u00dfen Sprachmodellen (LLM) und wie kann man falsche Ergebnisse vermeiden?","breadcrumb":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/halluzinationen-generative-ki-llm\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.iese.fraunhofer.de\/blog\/halluzinationen-generative-ki-llm\/"]}]},{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/halluzinationen-generative-ki-llm\/#primaryimage","url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/09\/generated_panorama_small.png","contentUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/09\/generated_panorama_small.png","width":1024,"height":405,"caption":"KI Halluzination einer Landschaft mit Dall-E 3"},{"@type":"BreadcrumbList","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/halluzinationen-generative-ki-llm\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Startseite","item":"https:\/\/www.iese.fraunhofer.de\/blog\/"},{"@type":"ListItem","position":2,"name":"Halluzinationen von generativer KI und gro\u00dfen Sprachmodellen (LLMs)"}]},{"@type":"WebSite","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#website","url":"https:\/\/www.iese.fraunhofer.de\/blog\/","name":"Fraunhofer IESE","description":"Blog des Fraunhofer-Institut f\u00fcr Experimentelles Software Engineering","publisher":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.iese.fraunhofer.de\/blog\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de"},{"@type":"Organization","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#organization","name":"Fraunhofer IESE","url":"https:\/\/www.iese.fraunhofer.de\/blog\/","logo":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#\/schema\/logo\/image\/","url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2016\/08\/fhg_iese_logo.png","contentUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2016\/08\/fhg_iese_logo.png","width":183,"height":50,"caption":"Fraunhofer IESE"},"image":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/FraunhoferIESE\/","https:\/\/x.com\/FraunhoferIESE","https:\/\/www.linkedin.com\/company\/fraunhoferiese\/","https:\/\/www.youtube.com\/c\/FraunhoferIESE"]},{"@type":"Person","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#\/schema\/person\/96d3d2ce62a13a8ee470ea948601ff28","name":"Dr. Julien Siebert","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2020\/10\/siebert_julien_8513_blog-96x96.jpg299e210bdf5631c16552ac66c10e3e56","url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2020\/10\/siebert_julien_8513_blog-96x96.jpg","contentUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2020\/10\/siebert_julien_8513_blog-96x96.jpg","caption":"Dr. Julien Siebert"},"description":"Julien Siebert is working as senior AI Expert in the Data Science department of Fraunhofer IESE. He studied Artificial Intelligence and Engineering Science and got his PhD in Computer Science. His professional interests include data science processes, artificial intelligence and complex systems.","url":"https:\/\/www.iese.fraunhofer.de\/blog\/author\/julien-siebert\/"}]}},"jetpack_featured_media_url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/09\/generated_panorama_small.png","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/posts\/12991","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/users\/66"}],"replies":[{"embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/comments?post=12991"}],"version-history":[{"count":20,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/posts\/12991\/revisions"}],"predecessor-version":[{"id":13074,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/posts\/12991\/revisions\/13074"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/media\/13005"}],"wp:attachment":[{"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/media?parent=12991"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/categories?post=12991"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/tags?post=12991"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/coauthors?post=12991"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}