{"id":11359,"date":"2024-01-19T13:58:50","date_gmt":"2024-01-19T12:58:50","guid":{"rendered":"https:\/\/www.iese.fraunhofer.de\/blog\/?p=11359"},"modified":"2024-11-18T12:08:42","modified_gmt":"2024-11-18T11:08:42","slug":"open-source-large-language-models-selbst-betreiben","status":"publish","type":"post","link":"https:\/\/www.iese.fraunhofer.de\/blog\/open-source-large-language-models-selbst-betreiben\/","title":{"rendered":"Open Source Large Language Models selbst betreiben"},"content":{"rendered":"<p class=\"lead\">Ein Open Source Large Language Model (LLM, auf Deutsch: gro\u00dfes Sprachmodell) bietet zahlreiche Vorteile, und diese gro\u00dfen Sprachmodelle haben im Jahr 2023 einen weiten Sprung nach vorne gemacht: Sie sind sehr leistungsf\u00e4hig geworden und k\u00f6nnen mittlerweile mit moderaten Hardwareanforderungen betrieben werden. In diesem Blog-Beitrag geben wir Tipps f\u00fcr den Einstieg in das Self-Hosting von Open Source Large Language Models.<\/p>\n<p>Seit Ende 2022 ist die Welt im ChatGPT-Fieber. Es vergeht kaum ein Tag ohne Meldungen zu generativer KI (generative AI oder auch \u00bbgenAI\u00ab), KI-gest\u00fctzten Chat-Bots und Large Language Models. Neben ChatGPT von OpenAI gibt es viele weitere kommerzielle Dienste.<\/p>\n<div class=\"info-box\"><strong><a href=\"https:\/\/www.iese.fraunhofer.de\/blog\/large-language-models-ki-sprachmodelle\/\">Was sind Large Language Models? Und was ist bei der Nutzung von KI-Sprachmodellen zu beachten?<\/a><\/strong> Diesen Fragen geht ein anderer <a href=\"https:\/\/www.iese.fraunhofer.de\/blog\/large-language-models-ki-sprachmodelle\/\">Blogbeitrag<\/a> auf die Spur. Neben grundlegenden Informationen zu Large Language Models werden auch Kriterien und Tipps f\u00fcr die Auswahl eines Large Language Models genannt. Nicht zuletzt werden die Grenzen von LLMs thematisiert.<\/div>\n<h2>Sind Open Source Large Language Models eine echte Alternative?<\/h2>\n<p>Mittlerweile stehen allerdings auch zahlreiche Open Source LLMs zur Verf\u00fcgung. <a href=\"https:\/\/www.iese.fraunhofer.de\/blog\/open-source-software\/\" target=\"_blank\" rel=\"noopener\">\u00bbOpen Source\u00ab<\/a> umfasst hier Folgendes: Das Large Language Model l\u00e4sst sich unter Ber\u00fccksichtigung einer \u00bbgutm\u00fctigen\u00ab Lizenz (wie z.B. Apache 2.0) herunterladen, und in der Regel sind auch Trainingsdaten und -parameter sowie Details zur Modellarchitektur und zu den genauen Abl\u00e4ufen, die zur Modellerstellung gef\u00fchrt haben, bekannt. Diese Large Language Models k\u00f6nnen damit auf einer eigenen Infrastruktur betrieben werden.<\/p>\n<h3>Vorteile von Open Source LLMs<\/h3>\n<p>Auch wenn kommerzielle Modelle aktuell meistens noch die Nase vorn haben, so bietet der Einsatz selbst betriebener Open-Source LLMs viele Vorteile:<\/p>\n<ul>\n<li>Es besteht <strong>keine Abh\u00e4ngigkeit von einem externen Service-Anbieter<\/strong>, der Preise erh\u00f6hen, Dienste abschalten oder Modelle entfernen kann.<\/li>\n<li>Daten m\u00fcssen das eigene Firmen-\/Institutsnetzwerk nicht verlassen und m\u00fcssen nicht Dritten zug\u00e4nglich gemacht werden. Hierdurch k\u00f6nnen auch <strong>sensitive Daten bzw. sensitiver Code mit Large Language Models<\/strong> verarbeitet werden.<\/li>\n<li>Kosten entstehen nicht auf Basis verarbeiteter Tokens und auch nicht durch ein Abonnement, sondern ergeben sich aus den Betriebskosten der eigenen Infrastruktur, ggf. n\u00f6tigen Anschaffungen und dem Aufbau der notwendigen Kompetenzen. Je nach Use Case kann dies <strong>kosteng\u00fcnstiger<\/strong> sein.<\/li>\n<li>Viele Details von Open Source Large Language Models sind i.d.R. bekannt, was die Vertrauensw\u00fcrdigkeit der Modelle erh\u00f6ht. Ein <strong>Finetuning der LLMs ist prinzipiell m\u00f6glich<\/strong>.<\/li>\n<li>F\u00fcr <strong>spezielle Use Cases<\/strong> sind spezialisierte (fine-tuned) Open Source Large Language Models verf\u00fcgbar, z.B. f\u00fcr Use Cases auf Deutsch oder auch f\u00fcr medizinische Forschung.<\/li>\n<li>Die <strong>Community rund um Open Source Large Language Models ist \u00e4u\u00dferst aktiv<\/strong>. Neben einer langen Liste von LLMs existieren auch zahlreiche hochwertige Libraries und Tools.<\/li>\n<\/ul>\n<h3>Hilfreiche aktuelle Entwicklungen im Bereich \u00bbOpen Source Large Language Models\u00ab<\/h3>\n<p>Hinsichtlich Open Source Large Language Models ist im Jahr 2023 viel passiert (siehe auch den <a href=\"https:\/\/huggingface.co\/blog\/2023-in-llms\">Huggingface Blogbeitrag \u00bb2023, year of open LLMs\u00ab<\/a>). Das Resultat: Es ist nun endlich m\u00f6glich, leistungsf\u00e4hige, wirklich funktionierende LLMs selbst zu betreiben. Hier eine Auswahl der Errungenschaften:<\/p>\n<ul>\n<li>Mehrere neue Open-Source Large Language Models wurden entwickelt. Viele davon sind kommerziell nutzbar und besitzen, gemessen an ihrer Leistungsf\u00e4higkeit, moderate Hardwareanforderungen.<\/li>\n<li>Fortschritte beim Finetuning der Basis Large Language Models haben daf\u00fcr gesorgt, dass auch \u00bbkleine\u00ab LLMs (z.B. mit 7 Milliarden Parametern) immer bessere Leistung zeigen. (Wir haben gute Erfahrung z.B. mit <a href=\"https:\/\/huggingface.co\/teknium\/OpenHermes-2.5-Mistral-7B\">OpenHermes 2.5 \u2013 Mistral 7B<\/a> und <a href=\"https:\/\/huggingface.co\/openchat\/openchat-3.5-0106\">Openchat 3.5 0106<\/a> gemacht.) Diese Fortschritte haben auch daf\u00fcr gesorgt, dass von gr\u00f6\u00dferen Open Source LLMs, wie z.B. Llama 2 70B, noch leistungsf\u00e4higere Derivate erzeugt wurden.<\/li>\n<li>Es stehen mehrere <a href=\"https:\/\/arxiv.org\/abs\/2308.07633\">Quantisierungstechniken<\/a> zur Verf\u00fcgung, mit denen LLMs \u00bbkleingerechnet\u00ab werden k\u00f6nnen, ohne dabei signifikant an Qualit\u00e4t zu verlieren. (Wir haben gute Erfahrung mit <a href=\"https:\/\/arxiv.org\/abs\/2306.00978\">AWQ<\/a> und der <a href=\"https:\/\/github.com\/ggerganov\/llama.cpp\">Llama.cpp<\/a>\/<a href=\"https:\/\/github.com\/ggerganov\/ggml\">GGML<\/a>-Quantisierung gemacht.)<\/li>\n<li>Es stehen mehrere optimierte Softwarel\u00f6sungen f\u00fcr den Produktivbetrieb von Open Source Large Language Models zur Verf\u00fcgung. (Wir haben gute Erfahrungen mit <a href=\"https:\/\/github.com\/vllm-project\/vllm\">vLLM<\/a> gemacht.)<\/li>\n<li>Es stehen leistungsf\u00e4hige Open Source LLMs, die f\u00fcr die deutsche Sprache optimiert wurden, zur Verf\u00fcgung. (Unter anderem im Kontext von <a href=\"https:\/\/arxiv.org\/abs\/2005.11401\">Retrieval Augmented Generation (RAG)<\/a> haben wir gute Erfahrung mit <a href=\"https:\/\/huggingface.co\/LeoLM\/leo-hessianai-70b-chat\">LeoLM 70b Chat<\/a> gemacht.)<\/li>\n<li>Mit <em>parameter-efficient fine-tuning<\/em> lassen sich LLMs mit moderater Hardwareanforderung feinabstimmen, z.B. mithilfe der <a href=\"https:\/\/huggingface.co\/docs\/peft\/index\">Huggingface-Bibliothek PEFT<\/a>, welche viele der mittlerweile entstandenen Techniken unterst\u00fctzt. Ein bekanntes Beispiel f\u00fcr <em>parameter-efficient fine-tuning<\/em> ist <a href=\"https:\/\/arxiv.org\/abs\/2106.09685\">LoRA: Low-Rank Adaptation of Large Language Models<\/a> (<a href=\"https:\/\/github.com\/microsoft\/LoRA\">siehe auch Github Repository<\/a>). Hiermit konnten wir positive Erfahrungen z.B. f\u00fcr den Task \u00bbText-to-SQL\u00ab sammeln.<\/li>\n<\/ul>\n<h2>Ich will Open Source Large Language Models nutzen \u2013 wie fange ich an?<\/h2>\n<p>Um sich einen ersten Eindruck von Open Source Large Language Models zu verschaffen, kann man \u00bbkleinere\u00ab LLMs z.B. auf einer \u00e4lteren Gaming-GPU, Notebook-GPU, in Online-Diensten wie Google Colab oder sogar auf der CPU ausprobieren. Aber eine Warnung vorweg: Man k\u00f6nnte versucht sein, zu alte oder zu kleine LLMs zu testen. Man w\u00fcrde f\u00e4lschlicherweise zu dem Schluss kommen, dass man mit Open-Source Large Language Models nicht sinnvoll arbeiten kann, da die Ergebnisse zu schlecht sind. Des Weiteren k\u00f6nnte man f\u00e4lschlicherweise schlie\u00dfen, dass Open-Source Large Language Models generell zu langsam f\u00fcr den Produktivbetrieb sind.<\/p>\n<p>F\u00fcr eine ernsthafte, realistische Evaluation sollte man ein nicht zu kleines, aktuelles LLM ausw\u00e4hlen (siehe unten). Um eine akzeptable Geschwindigkeit zu erreichen, ist der Einsatz einer GPU zu empfehlen. Quantisierung (\u00bbKleinrechnen\u00ab) hilft dabei, gr\u00f6\u00dfere Modelle auch auf GPUs mit weniger VRAM betreiben zu k\u00f6nnen. Dar\u00fcber hinaus ist es f\u00fcr erste Experimente auch hilfreich, ein performantes Backend zu benutzen, z.B. <a href=\"https:\/\/github.com\/vllm-project\/vllm\">vLLM<\/a> oder <a href=\"https:\/\/github.com\/ggerganov\/llama.cpp\">Llama.cpp<\/a>.<\/p>\n<h3>Modellauswahl \u2013 ein geeignetes LLM f\u00fcr den Einstieg finden<\/h3>\n<p>Die Community hat viele Rankings erstellt, die Open Source Large Language Models vergleichen, z.T. auch mit kommerziellen Modellen, und so bei der Auswahl eines LLMs helfen k\u00f6nnen. Beispiele sind:<\/p>\n<ul>\n<li><a href=\"https:\/\/huggingface.co\/spaces\/lmsys\/chatbot-arena-leaderboard\">https:\/\/huggingface.co\/spaces\/lmsys\/chatbot-arena-leaderboard<\/a><\/li>\n<li><a href=\"https:\/\/huggingface.co\/spaces\/HuggingFaceH4\/open_llm_leaderboard\">https:\/\/huggingface.co\/spaces\/HuggingFaceH4\/open_llm_leaderboard<\/a><\/li>\n<li><a href=\"https:\/\/huggingface.co\/spaces\/mike-ravkine\/can-ai-code-results\">https:\/\/huggingface.co\/spaces\/mike-ravkine\/can-ai-code-results<\/a><\/li>\n<li><a href=\"https:\/\/huggingface.co\/spaces\/bigcode\/bigcode-models-leaderboard\">https:\/\/huggingface.co\/spaces\/bigcode\/bigcode-models-leaderboard<\/a><\/li>\n<\/ul>\n<p>Ein Beispiel f\u00fcr ein gutes \u00bbEinsteiger-LLM\u00ab f\u00fcr allgemeine Zwecke (Stand Januar 2024) ist unserer Erfahrung nach <a href=\"https:\/\/huggingface.co\/openchat\/openchat-3.5-0106\">Openchat 3.5 0106<\/a>. Es basiert auf Mistral 7B und steht unter Apache-2.0-Lizenz. Mit 4Bit-Quantisierung ben\u00f6tigt es mit Llama.cpp 6,87 GB VRAM (<a href=\"https:\/\/huggingface.co\/TheBloke\/openchat-3.5-0106-GGUF#provided-files\">mit der Quantisierungsmethode \u00bbQ4_K_M\u00ab<\/a>).<\/p>\n<p>Mit der Python-Bibliothek <a href=\"https:\/\/github.com\/abetlen\/llama-cpp-python\">llama-cpp-python<\/a> kann man hiermit einen <a href=\"https:\/\/platform.openai.com\/docs\/api-reference\/chat\">OpenAI-API<\/a>-kompatiblen Model-Server auf einer \u00e4lteren Gaming-GPU (z.B. NVIDIA RTX 2080 Ti mit 11 GB VRAM) starten oder sogar auf der Notebook-GPU, falls man nur Teile des Modells auf die GPU l\u00e4dt. Sogar auf der CPU ist es mit diesem Setup noch einigerma\u00dfen benutzbar. (Allerdings ist diese Server-Software unserer Einsch\u00e4tzung nach nicht f\u00fcr den Produktivbetrieb geeignet.) Als vergleichbares deutschsprachiges Open-Source Large Language Model k\u00f6nnte <a href=\"https:\/\/huggingface.co\/LeoLM\/leo-mistral-hessianai-7b-chat\">LeoLM Chat<\/a> zum Einsatz kommen, das auch mit der o.g. Quantisierung betrieben werden kann und die gleichen Hardwareanforderungen besitzt (beide Modelle basieren auf Mistral 7B). Ein interessantes LLM f\u00fcr den Einstieg ist auch das sehr aktuelle <a href=\"https:\/\/huggingface.co\/microsoft\/phi-2\">Phi-2<\/a> von Microsoft, das mit nur 2,7 Milliarden Parametern deutlich kleiner ist als das Mistral 7B Modell, aber als sehr leistungsf\u00e4hig gilt. Noch kleiner, aber vielleicht f\u00fcr allererste Experimente auch spannend: das ganz frische <a href=\"https:\/\/huggingface.co\/TinyLlama\/TinyLlama-1.1B-Chat-v1.0\">TinyLlama-1.1B-Chat<\/a>.<\/p>\n<h3>Large Language Models und deutsche Sprache<\/h3>\n<p>Noch eine Anmerkung zu Open Source Large Language Models und Deutsch: In der Regel sind Large Language Models bereits ohne spezielles Finetuning multilingual. Das Verst\u00e4ndnis deutscher Texte funktioniert unserer Erfahrung nach gut, allerdings kann es vorkommen, dass deutschsprachige Anweisungen (instructions) nicht so gut befolgt werden wie englischsprachige. Auch beim Generieren deutschsprachiger Antworten kommen unserer Erfahrung nach zumindest kleinere LLMs an ihre Grenzen. Gr\u00f6\u00dfere, sehr aktuelle Open Source Large Language Models wie <a href=\"https:\/\/huggingface.co\/mistralai\/Mixtral-8x7B-Instruct-v0.1\">Mixtral-8x7B Instruct<\/a> scheinen damit aber gut zurecht zu kommen. Dennoch kann es sich lohnen, z.B. die oben genannten Open Source Large Language Models, die f\u00fcr Deutsch feinabgestimmt (fine-tuned) wurden, zu evaluieren.<\/p>\n<h2>Wie betreibe ich Open Source LLMs f\u00fcr mein Unternehmen?<\/h2>\n<p>F\u00fcr den Produktivbetrieb sollte man nicht auf eine GPU bzw. mehrere GPUs verzichten. Entscheidend ist hier vor allem der insgesamt zur Verf\u00fcgung stehende VRAM. Die Grafikkarten d\u00fcrfen aber auch nicht zu alt sein: M\u00f6chte man den optimierten Server vLLM mit der AWQ-Quantisierung nutzen, so m\u00fcssen die GPUs mindestens die <a href=\"https:\/\/developer.nvidia.com\/cuda-gpus\">CUDA Compute Capability<\/a> 7.5 unterst\u00fctzen. Mit vLLM k\u00f6nnen Modelle auch auf mehrere kleinere GPUs aufgeteilt werden, allerdings nicht beliebig: Die Anzahl der genutzten GPUs muss Teiler der Anzahl der Schichten sein (f\u00fcr 64 Schichten also 2, 4, 8, 16, 32 oder 64 GPUs). (Wir betreiben z.B. das au\u00dferordentlich leistungsf\u00e4hige Mixtral-8x7B-Instruct-v0.1 ohne Quantisierung auf 8 x 32GB NVIDIA V100-GPUs.) Der LLM-Server <a href=\"https:\/\/huggingface.co\/docs\/text-generation-inference\/index\">Text Generation Inference (TGI) von Huggingface<\/a> kann eine Alternative zu vLLM darstellen, falls die spezielle <a href=\"https:\/\/github.com\/huggingface\/text-generation-inference\/blob\/main\/LICENSE\">Lizenz<\/a> mit dem Einsatz kompatibel ist. TGI ist auch f\u00fcr den optimierten Produktivbetrieb geeignet und bietet neben AWQ auch andere Quantisierungsoptionen (bitsandbytes, eetq und GPTQ).<\/p>\n<p>Insbesondere f\u00fcr den Produktivbetrieb gilt, dass man ein nicht zu kleines, aktuelles Large Language Model ausw\u00e4hlen sollte. Unserer Erfahrung nach sollte man quantisierten Modellen mit vielen Parametern den Vorzug gegen\u00fcber nicht-quantisierten Modellen mit weniger Parametern geben. Das bereits erw\u00e4hnte Mixtral-8x7B-Instruct genie\u00dft derzeit (Stand Januar 2024) einen ausgezeichneten Ruf, aber auch Derivate von Llama 2 70B halten wir f\u00fcr geeignet (gute Erfahrungen konnten wir mit dem deutschsprachigen <a href=\"https:\/\/huggingface.co\/LeoLM\/leo-hessianai-70b-chat\">LeoLM 70b Chat<\/a> sammeln). Ist man nicht auf eine Lizenz angewiesen, die eine kommerzielle Nutzung des Large Language Models erlaubt, so ist die Auswahl geeigneter LLMs noch deutlich gr\u00f6\u00dfer.<\/p>\n<p>Je nach Use Case kann auch bei ausschlie\u00dflich interner Nutzung ein Hosting mit einer vLLM-Instanz an seine Grenzen sto\u00dfen. In diesem Fall muss \u00fcber Load-Balancing, Cluster usw. nachgedacht werden.<\/p>\n<h2>Wie kann ich entscheiden, welches Open Source Large Language Model am besten f\u00fcr unseren Use Case geeignet ist?<\/h2>\n<p>Benchmarks und die o.g. Rankings stellen einen guten Startpunkt dar. Es sei jedoch darauf hingewiesen, dass diese Rankings h\u00e4ufig nur wenige verschiedene Aufgabestellungen ber\u00fccksichtigen, und dass gute Benchmarkergebnisse auch t\u00e4uschen k\u00f6nnen, z.B. aufgrund von <a href=\"https:\/\/arxiv.org\/abs\/2312.16337\">\u00bbTask Contamination\u00ab<\/a>. Unserer Ansicht nach ist es hilfreicher, verschiedene Modelle f\u00fcr den konkreten eigenen Use Case zu evaluieren. Unser <a href=\"https:\/\/www.iese.fraunhofer.de\/de\/leistungen\/data-analytics.html\">Team <em>Data Science <\/em><\/a>kann Ihrem Unternehmen dabei helfen.<\/p>\n<p>Nicht zuletzt muss das LLM aber unter Ber\u00fccksichtigung der zur Verf\u00fcgung stehenden Hardware ausgew\u00e4hlt werden.<\/p>\n<p>Ausgew\u00e4hlte Beispiele aus eigener Erfahrung:<\/p>\n<ul>\n<li><a href=\"https:\/\/huggingface.co\/LeoLM\/leo-hessianai-70b-chat\">LeoLM 70b Chat<\/a> mit AWQ-Quantisierung kann auf 2x NVIDIA RTX 6000 Ada (je 48GB) mit vLLM betrieben werden.<\/li>\n<li><a href=\"https:\/\/huggingface.co\/Phind\/Phind-CodeLlama-34B-v2\">Phind-CodeLlama-34B-v2<\/a> mit AWQ-Quantisierung kann auf 1x NVIDIA RTX 6000 Ada (48GB) mit vLLM betrieben werden (ein Bespiel f\u00fcr ein auf Code spezialisiertes Open Source Large Language Model).<\/li>\n<li><a href=\"https:\/\/huggingface.co\/mistralai\/Mixtral-8x7B-Instruct-v0.1\">Mixtral-8x7B-Instruct-v0.1<\/a> kann auf 8x NVIDIA V100 (je 32GB) ohne Quantisierung in float16 betrieben werden.<\/li>\n<\/ul>\n<div class=\"info-box\">\n<p>Large Language Models Webinare<\/p>\n<h2>Wie kann ich mehr \u00fcber LLMs lernen?<\/h2>\n<p>Das <a href=\"https:\/\/www.iese.fraunhofer.de\/de\/leistungen\/data-analytics.html\">Team Data Science<\/a> bietet zum Thema LLM Webinare an, darunter sowohl kostenfreie als auch kostenpflichtige Optionen.<\/p>\n<p>&nbsp;<\/p>\n<p>Mehr zur Webinarreihe<strong><br \/>\n\u00bbZuverl\u00e4ssiger Einsatz von Large Language Models (LLMs)\u00ab<\/strong><\/p>\n<h3 class=\"fragment\"><a href=\"https:\/\/www.iese.fraunhofer.de\/de\/seminare_training\/webinar-llm.html\" target=\"_blank\" rel=\"noopener\">1: Open Source LLMs selbst betreiben<\/a><\/h3>\n<h3 id=\"Teil-2-Retrieval-Augmented-Generation-RAG\" class=\"fragment\"><a href=\"https:\/\/www.iese.fraunhofer.de\/de\/seminare_training\/weiterbildung-llm.html\" target=\"_blank\" rel=\"noopener\">2: Retrieval Augmented Generation (RAG)<\/a><\/h3>\n<h3 id=\"Teil-2-Retrieval-Augmented-Generation-RAG\" class=\"fragment\"><a href=\"https:\/\/www.iese.fraunhofer.de\/de\/seminare_training\/weiterbildung-prompting.html\" target=\"_blank\" rel=\"noopener\">3: Prompting Essentials \u2013 LLMs effektiv nutzen<\/a><\/h3>\n<p>&nbsp;<\/p>\n<p>Sie haben Interesse an einem Seminar f\u00fcr Ihr Unternehmen?<br \/>\nAuf Wunsch bieten wir individuell gestaltete Seminare (auf Deutsch und Englisch) f\u00fcr Ihr Unternehmen an, in denen die Schulungsinhalte gezielt auf Ihre Bed\u00fcrfnisse abgestimmt werden k\u00f6nnen.<\/p>\n<p>&nbsp;<\/p>\n<\/div>\n<h2>Wo erhalte ich Unterst\u00fctzung, um Open Source LLMs in unserem Unternehmen \/ in unserer Institution zu nutzen?<\/h2>\n<p><a href=\"https:\/\/www.iese.fraunhofer.de\/de\/leistungen\/data-analytics.html\">Unser Team Data Science<\/a> kann Ihr Unternehmen \/ Ihre Institution unter anderem bei folgenden Themen unterst\u00fctzen:<\/p>\n<ul>\n<li>Modellauswahl<\/li>\n<li>Model-Betrieb<\/li>\n<li>Wie integriere ich Open Source Large Language Models in meine Applikationen?<\/li>\n<li>Wie kann ich Open Source Large Language Models nutzen, um Unternehmensdaten besser zug\u00e4nglich zu machen (z.B. mithilfe von Retrieval Augmented Generation (RAG))?<\/li>\n<li>Wie kann ich Open Source LLMs f\u00fcr meine speziellen Use Cases bzw. Daten feinabstimmen (Finetuning, z.B. mit LoRA)?<\/li>\n<li>Wie kann ich Open Source Large Language Models f\u00fcr deutschsprachige Anwendungen oder Code und Software Engineering einsetzen?<\/li>\n<li>Wie kann ich Large Language Models f\u00fcr meinen Use Case evaluieren?<\/li>\n<\/ul>\n<p>Unser <a href=\"https:\/\/www.iese.fraunhofer.de\/de\/loesung\/open-source-llm.html\">L\u00f6sungsangebot<\/a> als PDF zum Mitnehmen:<\/p>\n<ul>\n<li><a href=\"https:\/\/www.iese.fraunhofer.de\/content\/dam\/iese\/leistung\/Open-Source-LLM-einsetzen_FraunhoferIESE.pdf\">Open-Source Large Language Models erfolgreich einsetzen (PDF)<\/a><\/li>\n<li><a href=\"https:\/\/www.iese.fraunhofer.de\/content\/dam\/iese\/leistung\/LLM-Innovation-Lab_FraunhoferIESE.pdf\">LLM Innovation Labs (PDF)<\/a><\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Ein Open Source Large Language Model (LLM, auf Deutsch: gro\u00dfes Sprachmodell) bietet zahlreiche Vorteile, und diese gro\u00dfen Sprachmodelle haben im Jahr 2023 einen weiten Sprung nach vorne gemacht: Sie sind sehr leistungsf\u00e4hig geworden und k\u00f6nnen mittlerweile mit moderaten Hardwareanforderungen betrieben&#8230;<\/p>\n","protected":false},"author":141,"featured_media":11383,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[177],"tags":[104,584,587,296,370],"coauthors":[592,214,229],"class_list":["post-11359","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-kuenstliche-intelligenz","tag-data-analytics","tag-generative-ai","tag-large-language-models-llm","tag-machine-learning","tag-open-source"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.5 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Open Source Large Language Models selbst betreiben - Blog des Fraunhofer IESE<\/title>\n<meta name=\"description\" content=\"Erfahrungen mit Open Source Large Language Models (LLMs) und Tipps zur Auswahl und zum Self-Hosting von KI-Sprachmodellen.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.iese.fraunhofer.de\/blog\/open-source-large-language-models-selbst-betreiben\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Open Source Large Language Models selbst betreiben - Blog des Fraunhofer IESE\" \/>\n<meta property=\"og:description\" content=\"Erfahrungen mit Open Source Large Language Models (LLMs) und Tipps zur Auswahl und zum Self-Hosting von KI-Sprachmodellen.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.iese.fraunhofer.de\/blog\/open-source-large-language-models-selbst-betreiben\/\" \/>\n<meta property=\"og:site_name\" content=\"Fraunhofer IESE\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/FraunhoferIESE\/\" \/>\n<meta property=\"article:published_time\" content=\"2024-01-19T12:58:50+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-11-18T11:08:42+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/01\/open-source-large-language-models.png\" \/>\n\t<meta property=\"og:image:width\" content=\"1200\" \/>\n\t<meta property=\"og:image:height\" content=\"630\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Thorsten Honroth, Dr. Julien Siebert, Patricia Kelbert\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@FraunhoferIESE\" \/>\n<meta name=\"twitter:site\" content=\"@FraunhoferIESE\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Thorsten Honroth\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"10\u00a0Minuten\" \/>\n\t<meta name=\"twitter:label3\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data3\" content=\"Thorsten Honroth, Dr. Julien Siebert, Patricia Kelbert\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/open-source-large-language-models-selbst-betreiben\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/open-source-large-language-models-selbst-betreiben\\\/\"},\"author\":{\"name\":\"Thorsten Honroth\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#\\\/schema\\\/person\\\/fc39c2e0969b3c68873fb5c8b09dbe7b\"},\"headline\":\"Open Source Large Language Models selbst betreiben\",\"datePublished\":\"2024-01-19T12:58:50+00:00\",\"dateModified\":\"2024-11-18T11:08:42+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/open-source-large-language-models-selbst-betreiben\\\/\"},\"wordCount\":1995,\"publisher\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/open-source-large-language-models-selbst-betreiben\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2024\\\/01\\\/open-source-large-language-models.png\",\"keywords\":[\"Data Analytics\",\"generative ai\",\"Large Language Models (LLM)\",\"Machine Learning\",\"Open Source\"],\"articleSection\":[\"K\u00fcnstliche Intelligenz\"],\"inLanguage\":\"de\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/open-source-large-language-models-selbst-betreiben\\\/\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/open-source-large-language-models-selbst-betreiben\\\/\",\"name\":\"Open Source Large Language Models selbst betreiben - Blog des Fraunhofer IESE\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/open-source-large-language-models-selbst-betreiben\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/open-source-large-language-models-selbst-betreiben\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2024\\\/01\\\/open-source-large-language-models.png\",\"datePublished\":\"2024-01-19T12:58:50+00:00\",\"dateModified\":\"2024-11-18T11:08:42+00:00\",\"description\":\"Erfahrungen mit Open Source Large Language Models (LLMs) und Tipps zur Auswahl und zum Self-Hosting von KI-Sprachmodellen.\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/open-source-large-language-models-selbst-betreiben\\\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/open-source-large-language-models-selbst-betreiben\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/open-source-large-language-models-selbst-betreiben\\\/#primaryimage\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2024\\\/01\\\/open-source-large-language-models.png\",\"contentUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2024\\\/01\\\/open-source-large-language-models.png\",\"width\":1200,\"height\":630,\"caption\":\"Open Source Large Language Models\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/open-source-large-language-models-selbst-betreiben\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Startseite\",\"item\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Open Source Large Language Models selbst betreiben\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#website\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/\",\"name\":\"Fraunhofer IESE\",\"description\":\"Blog des Fraunhofer-Institut f\u00fcr Experimentelles Software Engineering\",\"publisher\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#organization\",\"name\":\"Fraunhofer IESE\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2016\\\/08\\\/fhg_iese_logo.png\",\"contentUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2016\\\/08\\\/fhg_iese_logo.png\",\"width\":183,\"height\":50,\"caption\":\"Fraunhofer IESE\"},\"image\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/www.facebook.com\\\/FraunhoferIESE\\\/\",\"https:\\\/\\\/x.com\\\/FraunhoferIESE\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/fraunhoferiese\\\/\",\"https:\\\/\\\/www.youtube.com\\\/c\\\/FraunhoferIESE\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#\\\/schema\\\/person\\\/fc39c2e0969b3c68873fb5c8b09dbe7b\",\"name\":\"Thorsten Honroth\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2024\\\/01\\\/Honroth_Thorsten-96x96.png91d20458e0724d21406d728858b5942a\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2024\\\/01\\\/Honroth_Thorsten-96x96.png\",\"contentUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2024\\\/01\\\/Honroth_Thorsten-96x96.png\",\"caption\":\"Thorsten Honroth\"},\"description\":\"Thorsten Honroth arbeitet als Data Scientist in der Abteilung \u00bbData Science\u00ab am Fraunhofer IESE. Sein T\u00e4tigkeitsschwerpunkt ist Natural Language Processing (NLP), was auch Semantische Suche, Sprachmodelle und Large Language Models einschlie\u00dft. Zuvor war er unter anderem als wissenschaftlicher Mitarbeiter am Fraunhofer Institut f\u00fcr digitale Medizin (MEVIS) und als Machine Learning Engineer t\u00e4tig. Er studierte Mathematik und Physik auf Lehramt f\u00fcr Gymnasien und Gesamtschulen und hat auch das zweite Staatsexamen erlangt. --- Thorsten Honroth works as a Data Scientist in the Data Science Department at Fraunhofer IESE. His work focuses on Natural Language Processing (NLP), which also includes semantic search, language models and Large Language Models. Previously, he worked as a research scientist at the Fraunhofer Institute for Digital Medicine (MEVIS) and as a Machine Learning Engineer. He studied Mathematics and Physics to become a teacher for grammar schools and comprehensive schools (Gymnasien und Gesamtschulen) and also passed his second state examination.\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/author\\\/thorsten-honroth\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Open Source Large Language Models selbst betreiben - Blog des Fraunhofer IESE","description":"Erfahrungen mit Open Source Large Language Models (LLMs) und Tipps zur Auswahl und zum Self-Hosting von KI-Sprachmodellen.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.iese.fraunhofer.de\/blog\/open-source-large-language-models-selbst-betreiben\/","og_locale":"de_DE","og_type":"article","og_title":"Open Source Large Language Models selbst betreiben - Blog des Fraunhofer IESE","og_description":"Erfahrungen mit Open Source Large Language Models (LLMs) und Tipps zur Auswahl und zum Self-Hosting von KI-Sprachmodellen.","og_url":"https:\/\/www.iese.fraunhofer.de\/blog\/open-source-large-language-models-selbst-betreiben\/","og_site_name":"Fraunhofer IESE","article_publisher":"https:\/\/www.facebook.com\/FraunhoferIESE\/","article_published_time":"2024-01-19T12:58:50+00:00","article_modified_time":"2024-11-18T11:08:42+00:00","og_image":[{"width":1200,"height":630,"url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/01\/open-source-large-language-models.png","type":"image\/png"}],"author":"Thorsten Honroth, Dr. Julien Siebert, Patricia Kelbert","twitter_card":"summary_large_image","twitter_creator":"@FraunhoferIESE","twitter_site":"@FraunhoferIESE","twitter_misc":{"Verfasst von":"Thorsten Honroth","Gesch\u00e4tzte Lesezeit":"10\u00a0Minuten","Written by":"Thorsten Honroth, Dr. Julien Siebert, Patricia Kelbert"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/open-source-large-language-models-selbst-betreiben\/#article","isPartOf":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/open-source-large-language-models-selbst-betreiben\/"},"author":{"name":"Thorsten Honroth","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#\/schema\/person\/fc39c2e0969b3c68873fb5c8b09dbe7b"},"headline":"Open Source Large Language Models selbst betreiben","datePublished":"2024-01-19T12:58:50+00:00","dateModified":"2024-11-18T11:08:42+00:00","mainEntityOfPage":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/open-source-large-language-models-selbst-betreiben\/"},"wordCount":1995,"publisher":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#organization"},"image":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/open-source-large-language-models-selbst-betreiben\/#primaryimage"},"thumbnailUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/01\/open-source-large-language-models.png","keywords":["Data Analytics","generative ai","Large Language Models (LLM)","Machine Learning","Open Source"],"articleSection":["K\u00fcnstliche Intelligenz"],"inLanguage":"de"},{"@type":"WebPage","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/open-source-large-language-models-selbst-betreiben\/","url":"https:\/\/www.iese.fraunhofer.de\/blog\/open-source-large-language-models-selbst-betreiben\/","name":"Open Source Large Language Models selbst betreiben - Blog des Fraunhofer IESE","isPartOf":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/open-source-large-language-models-selbst-betreiben\/#primaryimage"},"image":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/open-source-large-language-models-selbst-betreiben\/#primaryimage"},"thumbnailUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/01\/open-source-large-language-models.png","datePublished":"2024-01-19T12:58:50+00:00","dateModified":"2024-11-18T11:08:42+00:00","description":"Erfahrungen mit Open Source Large Language Models (LLMs) und Tipps zur Auswahl und zum Self-Hosting von KI-Sprachmodellen.","breadcrumb":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/open-source-large-language-models-selbst-betreiben\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.iese.fraunhofer.de\/blog\/open-source-large-language-models-selbst-betreiben\/"]}]},{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/open-source-large-language-models-selbst-betreiben\/#primaryimage","url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/01\/open-source-large-language-models.png","contentUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/01\/open-source-large-language-models.png","width":1200,"height":630,"caption":"Open Source Large Language Models"},{"@type":"BreadcrumbList","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/open-source-large-language-models-selbst-betreiben\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Startseite","item":"https:\/\/www.iese.fraunhofer.de\/blog\/"},{"@type":"ListItem","position":2,"name":"Open Source Large Language Models selbst betreiben"}]},{"@type":"WebSite","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#website","url":"https:\/\/www.iese.fraunhofer.de\/blog\/","name":"Fraunhofer IESE","description":"Blog des Fraunhofer-Institut f\u00fcr Experimentelles Software Engineering","publisher":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.iese.fraunhofer.de\/blog\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de"},{"@type":"Organization","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#organization","name":"Fraunhofer IESE","url":"https:\/\/www.iese.fraunhofer.de\/blog\/","logo":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#\/schema\/logo\/image\/","url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2016\/08\/fhg_iese_logo.png","contentUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2016\/08\/fhg_iese_logo.png","width":183,"height":50,"caption":"Fraunhofer IESE"},"image":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/FraunhoferIESE\/","https:\/\/x.com\/FraunhoferIESE","https:\/\/www.linkedin.com\/company\/fraunhoferiese\/","https:\/\/www.youtube.com\/c\/FraunhoferIESE"]},{"@type":"Person","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#\/schema\/person\/fc39c2e0969b3c68873fb5c8b09dbe7b","name":"Thorsten Honroth","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/01\/Honroth_Thorsten-96x96.png91d20458e0724d21406d728858b5942a","url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/01\/Honroth_Thorsten-96x96.png","contentUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/01\/Honroth_Thorsten-96x96.png","caption":"Thorsten Honroth"},"description":"Thorsten Honroth arbeitet als Data Scientist in der Abteilung \u00bbData Science\u00ab am Fraunhofer IESE. Sein T\u00e4tigkeitsschwerpunkt ist Natural Language Processing (NLP), was auch Semantische Suche, Sprachmodelle und Large Language Models einschlie\u00dft. Zuvor war er unter anderem als wissenschaftlicher Mitarbeiter am Fraunhofer Institut f\u00fcr digitale Medizin (MEVIS) und als Machine Learning Engineer t\u00e4tig. Er studierte Mathematik und Physik auf Lehramt f\u00fcr Gymnasien und Gesamtschulen und hat auch das zweite Staatsexamen erlangt. --- Thorsten Honroth works as a Data Scientist in the Data Science Department at Fraunhofer IESE. His work focuses on Natural Language Processing (NLP), which also includes semantic search, language models and Large Language Models. Previously, he worked as a research scientist at the Fraunhofer Institute for Digital Medicine (MEVIS) and as a Machine Learning Engineer. He studied Mathematics and Physics to become a teacher for grammar schools and comprehensive schools (Gymnasien und Gesamtschulen) and also passed his second state examination.","url":"https:\/\/www.iese.fraunhofer.de\/blog\/author\/thorsten-honroth\/"}]}},"jetpack_featured_media_url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2024\/01\/open-source-large-language-models.png","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/posts\/11359","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/users\/141"}],"replies":[{"embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/comments?post=11359"}],"version-history":[{"count":37,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/posts\/11359\/revisions"}],"predecessor-version":[{"id":13289,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/posts\/11359\/revisions\/13289"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/media\/11383"}],"wp:attachment":[{"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/media?parent=11359"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/categories?post=11359"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/tags?post=11359"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/coauthors?post=11359"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}