{"id":7446,"date":"2021-03-04T09:05:47","date_gmt":"2021-03-04T07:05:47","guid":{"rendered":"https:\/\/www.iese.fraunhofer.de\/blog\/?p=7446"},"modified":"2024-07-17T08:53:01","modified_gmt":"2024-07-17T06:53:01","slug":"dependable-ai","status":"publish","type":"post","link":"https:\/\/www.iese.fraunhofer.de\/blog\/dependable-ai\/","title":{"rendered":"Dependable AI \/ Verl\u00e4ssliche KI &#8211; Ein \u00dcberblick"},"content":{"rendered":"<p class=\"lead\">K\u00fcnstliche Intelligenz (KI) steckt heutzutage bereits in vielen Systemen: vom Sprachassistenten bis hin zu intelligenten Algorithmen, die unser Verhalten beim Online-Shopping oder in Social Media auswerten. In Zukunft werden uns KI-Systeme noch viel h\u00e4ufiger begegnen und das insbesondere in kritischen Anwendungsfeldern, wie autonomem Fahren, Produktionsautomatisierung\/Industrie 4.0 oder Medizintechnik. Kritisch sind diese Anwendungsfelder, weil ein Fehlverhalten des KI-Systems zu einer Gefahr f\u00fcr Leib und Leben werden kann; beispielsweise, wenn ein autonom fahrendes Fahrzeug einen Menschen beim \u00dcberqueren einer Stra\u00dfe nicht erkennt oder wenn ein autonomer OP-Roboter eine Fehlfunktion bei einer Operation hat. Im folgenden Beitrag zum Thema \u00bbDependable AI \/ Verl\u00e4ssliche KI\u00ab soll insbesondere der Aspekt der Absicherung von KI-Systemen diskutiert werden.<\/p>\n<p>In diesem Blog-Artikel sollen die typischen Herausforderungen bez\u00fcglich der Sicherheit oder auch bez\u00fcglich anderer Eigenschaften der Verl\u00e4sslichkeit in Anbetracht von KI-Systemen thematisiert werden. Zugleich zeigen wollen wir auch L\u00f6sungsvorschl\u00e4ge aufzeigen, die es uns erm\u00f6glichen, KI in kritischen Anwendungsfeldern verl\u00e4sslicher zu machen. Zun\u00e4chst besch\u00e4ftigen wir uns aber mit der Frage, was KI-Systeme eigentlich sind und auf welche Qualit\u00e4ten man in welchen Anwendungsfeldern achten muss.<\/p>\n<h3>Was sind KI-Systeme?<\/h3>\n<p>KI-Systeme sind Systeme, die eine K\u00fcnstliche Intelligenz beinhalten; d.h., mindestens eine Komponente des Systems setzt eine Funktionalit\u00e4t mittels <a href=\"https:\/\/www.iese.fraunhofer.de\/blog\/category\/kuenstliche-intelligenz\/\">K\u00fcnstlicher Intelligenz<\/a> um.<\/p>\n<p>KI ist eine breite und in Informatikma\u00dfst\u00e4ben eher alte Disziplin (siehe Abbildung 1), welche viele verschiedene Arten von Ans\u00e4tzen subsumiert. Im Kern geht es bei jedem dieser Ans\u00e4tze darum, menschliches Verhalten nachzuahmen. Intelligenz im eigentlichen Sinne wird von den Ans\u00e4tzen in der Regel jedoch nicht erreicht, wobei es aber nat\u00fcrlich schon ein Ziel der Forschung ist, auch in dieser Hinsicht Fortschritte zu machen. In den letzten Jahren ist die KI Aufgrund vieler neuer Anwendungserfolge erneut stark in den Blickpunkt ger\u00fcckt. Diese Erfolge wurden in erster Linie durch Fortschritte in den Bereichen des Maschinellen Lernens und insbesondere bei den Neuronalen Netzen erzielt. Hier wird die Funktionalit\u00e4t auf Basis von Daten gelernt und nicht mehr klassisch programmiert.<\/p>\n<div id='gallery-1' class='gallery galleryid-7446 gallery-columns-1 gallery-size-large'><figure class='gallery-item'>\n\t\t\t<div class='gallery-icon landscape'>\n\t\t\t\t<a href='https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/Dependable-AI_History_FraunhoferIESE-1.png'><img loading=\"lazy\" decoding=\"async\" width=\"698\" height=\"297\" src=\"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/Dependable-AI_History_FraunhoferIESE-1-698x297.png\" class=\"attachment-large size-large\" alt=\"Dependable AI (History of AI)\" aria-describedby=\"gallery-1-7481\" srcset=\"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/Dependable-AI_History_FraunhoferIESE-1-698x297.png 698w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/Dependable-AI_History_FraunhoferIESE-1-400x170.png 400w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/Dependable-AI_History_FraunhoferIESE-1-768x327.png 768w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/Dependable-AI_History_FraunhoferIESE-1.png 1319w\" sizes=\"auto, (max-width: 698px) 100vw, 698px\" \/><\/a>\n\t\t\t<\/div>\n\t\t\t\t<figcaption class='wp-caption-text gallery-caption' id='gallery-1-7481'>\n\t\t\t\tAbbildung 1: Entwicklung der K\u00fcnstlichen Intelligenz\n\t\t\t\t<\/figcaption><\/figure>\n\t\t<\/div>\n\n<p>&nbsp;<\/p>\n<p>Beispiele f\u00fcr erfolgreiche Anwendungen sind insbesondere bei der semantischen Segmentierung von z.B. Bilddaten, also zum Beispiel der Objekterkennung auf Basis von Bildinformationen, zu finden. Dieser Bereich wird zunehmend wichtig, da die Wahrnehmung der Umgebung f\u00fcr die stark aufkommenden hochautomatisierten und autonomen Systeme essenziell ist. Und auch im medizinischen Bereich gibt es bereits sehr vielversprechende Resultate. Hier unterst\u00fctzen KI-Komponenten erfolgreich bei Diagnosen auf Basis von bildgebenden Untersuchungen wie MRT oder CT.<\/p>\n<p>Insgesamt kann man sagen, dass die Nutzung des Maschinellen Lernens (ML) oftmals dort vielversprechend ist, wo es schwierig ist, eine ad\u00e4quate konventionelle Spezifikation einer Komponente zu erstellen. ML erm\u00f6glicht dann also Funktionalit\u00e4ten, die auf klassischem Weg nicht oder nur schlechter mit Software programmiert werden k\u00f6nnten. Damit k\u00f6nnen komplexe Zusammenh\u00e4nge (in Modellen) realisiert werden, die dann in KI-Systemen zum Einsatz kommen.<\/p>\n<h3>Welche Qualit\u00e4ten eines KI-Systems sind f\u00fcr welche Anwendung wichtig?<\/h3>\n<p>In der Praxis gibt es eine Vielzahl m\u00f6glicher KI-Anwendungen aus verschiedenen Anwendungsdom\u00e4nen. Im Folgenden wollen wir uns die Vorteile und Gefahren eines KI-Systems anhand dreier Beispiele aus ganz verschiedenen Bereichen anschauen:<\/p>\n<p>(1) In einer intelligenten Fabrik sagt ein KI-System z.B. den Ausfall einer Maschine in einer Produktionsstra\u00dfe auf Basis von Sensordaten voraus. Man spricht hier von <a href=\"https:\/\/www.iese.fraunhofer.de\/blog\/industrie-4-0-braucht-eine-softwarerevolution\/\">Predictive Maintenance<\/a> \u2013 also der vorausschauenden Wartung einer Maschine. Damit wird es m\u00f6glich, dass die Produktionsstra\u00dfe f\u00fcr ein Produkt nicht ungeplant ausf\u00e4llt und hohe Stillstandkosten verursacht, sondern die Wartung der Maschine zu einem g\u00fcnstigen Zeitpunkt vor dem Ausfall eingeplant werden kann. Eine fehlerhafte Vorhersage der KI f\u00fchrt dann bei einer falsch-positiven Vorhersage zu unn\u00f6tigen Wartungskosten oder bei einer falsch-negativen Vorhersage zu einem ungeplanten Stillstand der Maschine. In beiden F\u00e4llen sprechen wir von etwaigen materiellen Verlusten. Bei der Qualit\u00e4t des KI-Systems geht es also im Wesentlichen um die Genauigkeit der Vorhersage und die Effizienz der Maschine. Predictive Maintenance gewinnt in Deutschland im Zuge der Industrie 4.0 zunehmend an Bedeutung. Bei der vierten industriellen Revolution werden z. B. Daten \u00fcber einen <a href=\"https:\/\/www.iese.fraunhofer.de\/blog\/digitale-zwillinge-it-infrastruktur\/\">Digitalen Zwilling<\/a> der produzierenden Maschinen in gro\u00dfen Mengen verf\u00fcgbar. Diese k\u00f6nnen wiederum f\u00fcr den Bau von Modellen genutzt werden.<\/p>\n<p>(2) In den USA wurden KI-Systeme zur Vorklassifikation von Bewerber*innen bei Unternehmen eingesetzt. Der Vorteil des KI-Einsatzes liegt darin, dass bei einer sehr gro\u00dfen Anzahl an Bewerber*innen die scheinbar interessanten automatisch herausgefiltert werden &#8211; ein Prozess, der ansonsten aufw\u00e4ndig manuell durchgef\u00fchrt werden muss. In der Praxis hat sich allerdings bei einigen dieser Systeme gezeigt, dass systematisch einige gesellschaftliche Gruppen diskriminiert wurden. Das lag daran, dass die Daten, auf deren Basis diese Systeme angelernt wurden, bereits gewisse Ungerechtigkeiten enthielten und diese demzufolge auch im KI-Modell steckten. Die Empfehlungen der KI f\u00fchrten so zum Ausschluss und zur Ungleichbehandlung aufgrund nichtfachlicher Argumente, wie z.B. der Zugeh\u00f6rigkeit zu einer ethnischen Gruppe. Die KI-Qualit\u00e4ten, die bei der Klassifikation von Bewerber*innen im Vordergrund stehen sollten, sind Fairness und Gleichbehandlung. Das Beispiel zeigt auch, dass es nicht allein auf die Genauigkeit der Klassifikation ankommt, sondern darauf, dass auch die Daten, die zum Anlernen von Modellen genutzt werden, gewisse Qualit\u00e4ten aufweisen sollten.<\/p>\n<p>(3) Das dritte Beispiel ist weltweit und insbesondere in Deutschland in aller Munde: Beim automatisierten oder autonomen Fahren ist die KI ein wichtiger Enabler. Hier geht es insbesondere um den zentralen Aspekt der Perzeption, aber auch im Bereich des automatisierten Fahrverhaltens sind Anwendungen denkbar. Das Potenzial des autonomen Fahrens ist gro\u00df. Es bietet zum Beispiel die Grundlage f\u00fcr komplett neu gedachte zuk\u00fcnftige Mobilit\u00e4tskonzepte wie Mobility as a Service. Damit w\u00fcrde sich die Mobilit\u00e4t jedes Einzelnen, aber auch die komplette Mobilit\u00e4tswirtschaft grundlegend \u00e4ndern. Im Vergleich zu den beiden anderen Beispielen kann hier allerdings ein Fehler des KI-Systems nicht nur zu einem materiellen Schaden f\u00fchren, sondern zur Gefahr f\u00fcr Leib und Leben werden \u2013 f\u00fcr das der Insassen sowie weiterer am Stra\u00dfenverkehr beteiligter Personen. Es geht also darum, Fehler oder Fehlverhalten in einem akzeptablen Ma\u00df zu halten. Im Fachjargon geht es um die Funktionale Sicherheit des Systems (Absicherung bezgl. aus Fehlfunktionen resultierender Gef\u00e4hrdungen; siehe ISO 26262) oder engl. Functional Safety, aber auch um die Sicherheit der Normalfunktion, welche aktuell unter dem Begriff Safety of the Intended Functionality adressiert wird (siehe ISO 21448). Abseits der Safety sind im Kontext der zuk\u00fcnftigen Mobilit\u00e4t aber nat\u00fcrlich auch andere Qualit\u00e4ten wie Verf\u00fcgbarkeit oder Datenschutz sehr wichtig.<\/p>\n<p>Wie unsere Beispiele zeigen, ergeben sich also je nach Anwendungsfeld unterschiedliche Qualit\u00e4tsanforderungen an KI-Systeme. In einigen Bereichen, wie z.B. der funktionalen Sicherheit, gibt es bereits eine Vielzahl von <a href=\"https:\/\/www.iese.fraunhofer.de\/blog\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\/\">Normen<\/a>, die beschreiben, wie sicherheitsrelevante Softwaresysteme zu entwickeln sind (wie z.B. die IEC 61508 f\u00fcr funktionale Sicherheit im Allgemeinen oder die ISO 26262 im Automobilbereich).<\/p>\n<p>Aber selbst Vorgaben \u2013 sofern sie existieren \u2013 sind f\u00fcr KI-Systeme nicht immer passend, oder sie sind unvollst\u00e4ndig, da KI-Komponenten eines Systems fundamental anders entwickelt werden: Die Funktionalit\u00e4t wird insbesondere nicht programmiert, sondern durch das Anwenden von Algorithmen auf Daten erstellt. Dadurch entsteht ein Modell, das von der Software zur Laufzeit lediglich ausgef\u00fchrt wird. Das resultierende Modell ist aufgrund seiner inh\u00e4renten Komplexit\u00e4t im Allgemeinen f\u00fcr den Menschen nicht verst\u00e4ndlich. Damit sind die Entscheidungen eines KI-Systems oft nicht transparent. Zudem k\u00f6nnen die Anforderungen an das KI-System typischerweise nicht vollst\u00e4ndig beschrieben werden. Dennoch muss ein KI-System in einem schier unendlichen Anwendungsraum verl\u00e4sslich funktionieren. Hier kommen etablierte Methoden und Techniken des klassischen Softwaretestens an ihre Grenzen. Ganz kritisch wird es bei selbstlernenden Systemen, also Systemen, die zur Laufzeit dazu lernen und ihr Verhalten anpassen. Auch hier gibt es Beispiele: Zum Beispiel hat ein KI-Chatbot rassistische Ansichten gelernt. Technisch gesehen hatte der Chatbot zwar keine Fehlfunktion, aber \u201cEvery program has (at least) two purposes: the one for which it was written and another for which it wasn&#8217;t\u201c (Alan J. Perlis, 1982). Daraus ergibt sich \u201cWe had better be quite sure that the purpose put into the machine is the purpose which we really desire\u201d (Norbert Wiener, 1960).<\/p>\n<p>Trotz der Vielzahl an Anwendungsm\u00f6glichkeiten gilt es also, etwaige <a href=\"https:\/\/www.iese.fraunhofer.de\/blog\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\/\">Risiken beim KI-Einsatz<\/a> genau zu analysieren und schon bei der Konzeption des KI-Systems entsprechend abzusichern.<\/p>\n<h3>Was versteht man unter verl\u00e4sslicher KI bzw. Dependable AI?<\/h3>\n<p>Dependability oder die Verl\u00e4sslichkeit eines Systems beschreibt die F\u00e4higkeit, nicht akzeptable Fehler bei der Erbringung eines Dienstes oder einer Funktionalit\u00e4t zu vermeiden (Jean-Claude Laprie). Dependability beinhaltet dabei z.B. die Verf\u00fcgbarkeit oder Zuverl\u00e4ssigkeit eines Dienstes, aber insbesondere auch die funktionale Sicherheit (Safety), um katastrophale Folgen f\u00fcr die Nutzer und die Umgebung zu vermeiden (also schwerwiegende oder gar t\u00f6dliche Unf\u00e4lle als Folge von Fehlern). Aber auch die Integrit\u00e4t und Zugriffssicherheit (Security) eines Systems oder dessen Wartbarkeit sind Qualit\u00e4tseigenschaften, die im Kontext von Dependability genannt werden.<\/p>\n<p>Beim Engineering verl\u00e4sslicher KI-Systeme geht es entsprechend darum, mittels Prinzipien aus dem Systems- und Software-Engineering bei der Konstruktion, der Verifikation\/Validation und dem Betrieb von KI-Systemen die Verl\u00e4sslichkeit systematisch zu gew\u00e4hrleisten und insbesondere auch gesetzliche und normative Vorgaben bzgl. der Verl\u00e4sslichkeit von Beginn an zu ber\u00fccksichtigen.<\/p>\n<div class=\"info-box\">\n<p>H\u00f6ren Sie auch in unserem <a href=\"https:\/\/www.iese.fraunhofer.de\/de\/media\/podcast.html#podcast02\">Podcast MORGEN <em>DENKER<\/em><\/a> mehr zu Dependable AI. Im Interview: Dr. Jens Heidrich, Division Manager Smart Digital Solutions am Fraunhofer IESE<\/p>\n<p>&nbsp;<\/p>\n<ul>\n<li><a href=\"https:\/\/www.iese.fraunhofer.de\/de\/media\/podcast.html#podcast02\">Podcast Dependable AI \u2013 Die Verl\u00e4sslickeit von K\u00fcnstlicher Intelligenz<\/a><\/li>\n<\/ul>\n<\/div>\n<h3>Welche M\u00f6glichkeiten er\u00f6ffnen sich durch verl\u00e4ssliche KI bzw. Dependable AI?<\/h3>\n<p>Die Anwendungsfelder von KI im Allgemeinen sind vielf\u00e4ltig: In den Zukunftsszenarien fast aller Branchen spielt KI eine entscheidende Rolle \u2013 ob Smart Mobility, Smart Production\/Industrie 4.0, Digital Health, Smart Farming, Smart City oder Smart Region. Die meisten Szenarien basieren darauf, dass datenbasierte intelligente Systeme angelernt werden, die aufgrund ihrer Komplexit\u00e4t nicht durch klassisches Programmieren konstruiert werden k\u00f6nnen. Mit Verfahren wie dem Maschinellem Lernen wird versucht, ein hoch komplexes Problem zu l\u00f6sen, indem Modelle auf einer riesigen Menge von Daten erlernt werden.<\/p>\n<p>KI-Ans\u00e4tze k\u00f6nnen dabei dazu verwendet werden, entweder existierende Prozesse zu optimieren (wie effizientere Wartung von Maschinen oder Sortierung von Werkst\u00fccken) oder vollkommen neue nutzerorientierte Produkte und Dienste zu schaffen (wie intelligente Mobilit\u00e4tsdienste auf Basis von autonomen Fahrzeugen).<\/p>\n<p>Die Potenziale, die KI f\u00fcr die Wirtschaft beinhaltet, wurden in verschiedensten Studien untersucht. Diese Studien sagen f\u00fcr die n\u00e4chsten Jahre sowohl f\u00fcr Deutschland als auch weltweit ein starkes Wachstum vorher. Ein Gro\u00dfteil des Zuwachses wird durch v\u00f6llig neue und st\u00e4rker nutzerorientierte Produkte erwartet. Das Potenzial ist gewaltig, aber auch die Konkurrenz im globalen Wettbewerb ist gro\u00df. L\u00e4nder wie die USA und China investieren in gro\u00dfem Ma\u00dfstab und sind aufgrund ihrer Strukturen und ihrer Mentalit\u00e4t ein g\u00fcnstiges Umfeld f\u00fcr Start-ups und die schnelle Etablierung neuer innovativer Produkte und Services. Um sich im Wettbewerb zu behaupten, m\u00fcssen sich Europa und Deutschland daher auf eigene St\u00e4rken besinnen: ingenieurm\u00e4\u00dfig entwickelte Qualit\u00e4t und Verl\u00e4sslichkeit!<\/p>\n<p>Denn f\u00fcr viele der eingangs erw\u00e4hnten Zukunftsszenarien ist Dependable AI entscheidend f\u00fcr den Erfolg. Dies betrifft zum Beispiel alles rund um hochautomatisierte bzw. Autonome Systeme und kognitive Systeme in sicherheitskritischen Anwendungsfeldern. Ohne Verl\u00e4sslichkeit kein Vertrauen (Trust und Trustworthiness) und ohne Vertrauen keine Akzeptanz und kein Erfolg. Schlie\u00dflich w\u00fcrde kaum jemand autonome Fahrzeuge nutzen oder mit lernf\u00e4higen Robotern im Arbeitsumfeld zusammenarbeiten, wenn diese nicht grunds\u00e4tzlich sicher sind, was ihre Funktionsweise im daf\u00fcr vorgesehenen Umfeld (wie im Stra\u00dfenverkehr oder in der Fabrik) betrifft.<\/p>\n<p>F\u00fcr die Zukunft eines Unternehmens ist es heute wichtiger denn je zu wissen, wo das Potenzial beim KI-Einsatz im jeweiligen Anwendungsbereich liegt und mit welchen Verfahren man verl\u00e4ssliche KI-Systeme bauen kann. Hier nehmen Deutschland und Europa mit der sehr ausgepr\u00e4gten Forschung im Bereich \u00bbDependability\u00ab und \u00bbSafety\u00ab eine Vorreiterrolle ein.<\/p>\n<h3>Welche Herausforderungen m\u00fcssen bei der Entwicklung verl\u00e4sslicher KI-Systeme beherrscht werden?<\/h3>\n<p>Die Herausforderungen bei der Entwicklung von KI-Systemen im Allgemeinen und verl\u00e4sslichen KI-Systemen im Besonderen sind vielschichtig. Sie reichen von der KI-Strategie \u00fcber konkrete technische Fragestellungen zur Absicherung des KI-Systems bis hin zu den verf\u00fcgbaren Kompetenzen im Unternehmen. Wir sehen diesbez\u00fcglich die folgenden Top 10 (in keiner bestimmten Reihenfolge) der typischen Praxisprobleme :<\/p>\n<ul>\n<li><strong><em>Potenziale und Risiken:<\/em> <\/strong>KI und Maschinelles Lernen sind mehr als eine rein technische Herausforderung, die <strong>nicht <\/strong>mit dem Kauf von Werkzeugen und Infrastruktur beginnen sollte. Unternehmen stehen oft vor der Herausforderung, einen f\u00fcr sie nutzbringenden Anwendungsfall zu finden oder zu bewerten, inwieweit KI f\u00fcr einen gegebenen Anwendungsfall wirklich die L\u00f6sung sein kann. Ferner ist es f\u00fcr Unternehmen eine Herausforderung zu bewerten, wie sich KI auf ihr Gesch\u00e4ft auswirken k\u00f6nnte und welche Mehrwerte in der Nutzung liegen. Es bedarf einer KI-Strategie, in der Potenziale und Risiken klar ersichtlich werden.<\/li>\n<li><strong><em>Nachweis der Verl\u00e4sslichkeit:<\/em><\/strong> Ein Kernelement bei der Konstruktion verl\u00e4sslicher KI-Systeme ist der Nachweis der Verl\u00e4sslichkeit. Es muss stichhaltig und nachvollziehbar dargelegt werden, dass alle diesbez\u00fcglich relevanten Anforderungen korrekt identifiziert wurden und dass das System diese Anforderungen, untermauert durch entsprechende Evidenzen, tats\u00e4chlich erf\u00fcllt. Mit anderen Worten, es wird eine umfassende Argumentation ben\u00f6tigt, welche alle bez\u00fcglich der Verl\u00e4sslichkeit relevanten Belange organisiert und strukturiert.<\/li>\n<li><strong><em>Sicherheitsarchitekturen:<\/em><\/strong> Auch wenn eine KI-Komponente ein Fehlverhalten zeigt, muss das System als Ganzes in der Lage sein, mit diesem Fehlverhalten umzugehen und ein etwaiges Schadensrisiko geringhalten. Der Entwurf solcher Sicherheitsarchitekturen, die ausschlaggebend daf\u00fcr sind, dass das System als Ganzes verl\u00e4sslich funktioniert, ist in der Praxis oftmals herausfordernd.<\/li>\n<li><strong><em>Blackbox-Komponenten:<\/em> <\/strong>Gro\u00dfe Systeme werden heutzutage selten von einem einzelnen Hersteller gebaut, sondern integrieren Teile von Zulieferern. Oftmals werden in diesem Zusammenhang Softwarekomponenten als Blackbox ausgeliefert; d.h. es gibt keinen Einblick in die konkrete Umsetzung und es l\u00e4sst sich nur das Verhalten der einzelnen Komponenten beobachten. Bei KI-Komponenten ist es daher wichtig, dass Zusicherungen und Angaben zur Verl\u00e4sslichkeit der jeweiligen Komponente eindeutig spezifiziert und zusammen mit der Komponente ausgeliefert werden.<\/li>\n<li><strong><em>Dynamisches Risikomanagement:<\/em><\/strong> Um das Risiko von Fehlern und Fehlverhalten eines KI-Systems in einem akzeptablen Ma\u00df zu halten, kann es aufgrund bestehender Unsicherheiten zur Entwicklungszeit n\u00f6tig sein, sehr konservative Worst-Case-Absch\u00e4tzungen zu treffen, was nat\u00fcrlich die Performanz des Systems negativ beeintr\u00e4chtigen kann. Abhilfe besteht darin, das System in die Lage zu versetzen, diese Unsicherheiten zur Laufzeit aufzul\u00f6sen und dann einerseits die Verl\u00e4sslichkeit aktiv zu gew\u00e4hrleisten, andererseits aber auch die Performanz zu optimieren. Die Nutzung solcher Laufzeitma\u00dfnahmen stellt in der Praxis zun\u00e4chst eine Herausforderung dar, birgt aber auch oft gro\u00dfes Potenzial.<\/li>\n<li><strong><em>Unsicherheitsbewertung<\/em>:<\/strong> Jedes datenbasierte Modell hat bei der Anwendung gewisse Unsicherheiten. Diese k\u00f6nnen neben dem KI-Modell selbst auch aus den Eingabedaten und dem Verwendungskontext stammen. Beispielsweise kann es sein, dass ein Modell f\u00fcr bestimmte Eingabedaten nicht trainiert wurde oder au\u00dferhalb des vorgesehenen Verwendungskontexts genutzt wird. Eine Herausforderung liegt darin, diese Unsicherheiten zu quantifizieren, um das von ihnen ausgehende Risiko zu beherrschen.<\/li>\n<li><strong><em>Datenverf\u00fcgbarkeit:<\/em><\/strong> Oftmals fehlt es auch an qualitativ hochwertigen Daten bzw. an Wissen dar\u00fcber, wie solche Daten erfasst werden k\u00f6nnen. F\u00fcr den Bau von Modellen mit Maschinellem Lernen stellt das ein gro\u00dfes Problem dar. Auch der beste Ansatz f\u00fcr Maschinelles Lernen kann aus qualitativ schlechten Daten kein erstklassig funktionierendes Modell erzeugen.<\/li>\n<li><strong><em>Data-Science-Kompetenzen:<\/em><\/strong> Die Nachfrage nach <a href=\"https:\/\/www.iese.fraunhofer.de\/blog\/data-scientists-dank-big-data-heiss-begehrt\/\">Data Scientists<\/a>, also Personen mit Kompetenzen im Umgang mit Daten und insbesondere Big Data sowie deren Analyse und Modellbildung, ist gro\u00df. F\u00fcr Unternehmen ist es h\u00e4ufig eine Herausforderung, Data Scientists anzuwerben oder innerhalb des Unternehmens \u00fcber Weiterbildungen aufzubauen. Dies gilt insbesondere f\u00fcr Data Scientists, die sich mit der Konstruktion verl\u00e4sslicher KI-Systeme auskennen.<\/li>\n<li><strong><em>KI-Standards:<\/em><\/strong> F\u00fcr Dependable AI, also die Absicherung von KI-Systemen, fehlen zudem noch gesetzliche Vorgaben, Normen, Best Practices und etablierte Methoden. Einige Leitlinien wurden gerade erst ver\u00f6ffentlicht (z.B. die Ethikrichtlinien f\u00fcr vertrauensw\u00fcrdige KI) oder m\u00fcssen noch in Bezug auf KI angepasst werden (wie die Neufassung der ISO 26262 oder die Erweiterung der ISO\/IEC 25000-Serie in Bezug auf KI). Daher ist f\u00fcr viele Unternehmen nicht klar, welche KI-Systeme heute schon m\u00f6glich sind und wie die zuk\u00fcnftigen Vorgaben f\u00fcr verl\u00e4ssliche KI-Systeme aussehen werden.<\/li>\n<li><strong><em>Referenzprozesse:<\/em><\/strong> In der angewandten KI-Forschung gibt es viele parallele Entwicklungen, die verfolgt werden m\u00fcssen. F\u00fcr etliche Probleme gibt es dort individuelle, lokale L\u00f6sungen, aber ein umfassender Engineering-Prozess, der sich f\u00fcr den industriellen Einsatz eignet, ist aktuell noch nicht verf\u00fcgbar. Unternehmen k\u00f6nnen sich daher nicht an einem Referenzprozess orientieren und m\u00fcssen sich m\u00fchsam eine eigene Blaupause f\u00fcr die Entwicklung ihres KI-Systems zusammenstellen.<\/li>\n<\/ul>\n<h3>Bei welchen Anwendungen steht die Verl\u00e4sslichkeit des KI-Systems im Fokus?<\/h3>\n<p>Typische Anwendungsfelder f\u00fcr Dependable AI sind Systeme, bei denen es um die Verl\u00e4sslichkeit des KI-Systems \u2013 also die Beherrschung des Risikos von Fehlern oder Fehlverhalten \u2013 geht.<\/p>\n<p><strong><em>Smart Mobility:<\/em><\/strong> Hochautomatisierte und autonome Fahrzeuge werden die Bereiche Mobilit\u00e4t und Logistik (Warentransport) vollst\u00e4ndig ver\u00e4ndern und neue digitale Dienste entstehen lassen. Aber die Risiken eines solchen Fahrzeugs m\u00fcssen f\u00fcr Nutzende und mit dem Fahrzeug interagierende Personen (wie Passanten) akzeptabel sein. Was genau ein akzeptables Risiko ist, wird aktuell noch diskutiert, z.B. auch von Ethikkommissionen. Grundlegende Elemente, die bereits weithin akzeptiert werden, sind die positive Risikobilanz (Positive Risk Balance) und das Prinzip ALARP (As Low as Reasonably Practicable). Bei der positiven Risikobilanz wird sichergestellt, dass die Gefahren f\u00fcr Leib und Leben geringer sind, als wenn eine Person das System manuell bedienen w\u00fcrde. Bei ALARP muss nachgewiesen werden, dass alles zur Risikominderung getan wird, was vern\u00fcnftigerweise \u2013 je nach Machbarkeit und Aufwand \u2013 getan werden kann.<\/p>\n<p><strong><em>Industrie 4.0:<\/em><\/strong> KI ist einer der St\u00fctzpfeiler der vierten industriellen Revolution hin zu einer intelligenten Fabrik, die hochflexibel individualisierte Produkte entstehen l\u00e4sst. Neben Szenarien wie <a href=\"https:\/\/www.iese.fraunhofer.de\/blog\/basys-4-0-eine-dienstbasierte-industrie-4-0-architektur\/\">Production-as-a-Service<\/a> oder Predictive Maintenance werden auch neue intelligente Maschinen eingesetzt. Fahrerlose Transportsysteme planen ihre Fahrten eigenst\u00e4ndig und passen diese an die Nachfrage an. Cobots unterst\u00fctzen Fabrikarbeiter und k\u00f6nnen effizient f\u00fcr verschiedenste Arbeiten angelernt werden. Heutzutage werden Mechanismen wie Lichtschranken und Sicherheitsk\u00e4fige benutzt, die das System v\u00f6llig deaktivieren, sollte ein Mensch in die Schutzzone gelangen. Somit kann allerdings der gew\u00fcnschte Grad der engen Interaktion mit dem Menschen nicht erreicht werden. Zuk\u00fcnftig bedarf es auch intelligenterer Schutzfunktionen bei der Benutzung von und der Interaktion mit solchen Systemen, damit ein Mensch keinem erh\u00f6hten Risiko ausgesetzt wird.<\/p>\n<p><strong><em>Digital Health:<\/em><\/strong> Schon heute werden Mediziner bei der Pr\u00e4vention, Diagnose und Therapie von Krankheiten durch KI-Systeme unterst\u00fctzt. Die KI ist dabei oft f\u00fcr fortgeschrittene Bild- und Datenauswertung (z.B. bei der Interpretation eines CT-Bildes) zust\u00e4ndig. Sie erlaubt qualitativ hochwertige Analysen in einer H\u00e4ufigkeit, die auf herk\u00f6mmlichem Wege nicht zu erreichen sind. Selbst bei Operationen werden heute schon erste Robotersysteme eingesetzt, die jedoch vom Menschen kontrolliert werden. Doch je mehr sich Mediziner auf solche Systeme st\u00fctzen und je h\u00f6her zuk\u00fcnftig der Autonomiegrad von KI-Systemen wird, desto wichtiger wird die Beherrschung des Risikos eines Fehlers und eines Fehlverhaltens der KI.<\/p>\n<h3>Wie erfolgt die Entwicklung verl\u00e4sslicher KI-Systeme?<\/h3>\n<p>Bei der Absicherung eines verl\u00e4sslichen KI-Systems m\u00fcssen verschiedenste Verfahren bei der Konstruktion, der Verifikation\/Validation (V&amp;V) und beim Betrieb in Abh\u00e4ngigkeit von der Kritikalit\u00e4t der Funktionalit\u00e4t des Systems angewandt werden. Abbildung 2 zeigt grundlegende Prozessbereiche in einem W-Modell. Dabei unterscheiden wir verschiedene Aktivit\u00e4ten im Lebenszyklus eines KI-Systems (X-Achse) und verschiedene Stakeholder, die in den unterschiedlichen Phasen beteiligt sind: von der Managementebene bis hin zur operativen\/technischen Ebene. Die Darstellung der Aktivit\u00e4ten und Ebenen orientiert sich an der VDE-AR-E 2842-61, welche ein Referenzmodell f\u00fcr vertrauensw\u00fcrdige KI definiert (entwickelt von der DKE, der in VDE und DIN zust\u00e4ndigen Organisation f\u00fcr die Erarbeitung von Normen). Grunds\u00e4tzlich orientiert sich der Prozess an einem ganzheitlichen Systems-Engineering-Ansatz. Dabei ist es je nach Anwendungsfeld \u00fcblich, dass einzelne Systemkomponenten als Blackbox von Zulieferern in das Gesamtsystem integriert werden m\u00fcssen.<\/p>\n<div id='gallery-2' class='gallery galleryid-7446 gallery-columns-1 gallery-size-full'><figure class='gallery-item'>\n\t\t\t<div class='gallery-icon landscape'>\n\t\t\t\t<a href='https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/DependableAI_FraunhoferIESE.jpg'><img loading=\"lazy\" decoding=\"async\" width=\"785\" height=\"435\" src=\"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/DependableAI_FraunhoferIESE.jpg\" class=\"attachment-full size-full\" alt=\"Prozessbereiche bei der Entwicklung eines Dependable-AI-Systems\" aria-describedby=\"gallery-2-7447\" srcset=\"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/DependableAI_FraunhoferIESE.jpg 785w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/DependableAI_FraunhoferIESE-400x222.jpg 400w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/DependableAI_FraunhoferIESE-698x387.jpg 698w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/DependableAI_FraunhoferIESE-768x426.jpg 768w\" sizes=\"auto, (max-width: 785px) 100vw, 785px\" \/><\/a>\n\t\t\t<\/div>\n\t\t\t\t<figcaption class='wp-caption-text gallery-caption' id='gallery-2-7447'>\n\t\t\t\tAbbildung 2: \u00dcbersicht \u00fcber die Prozessbereiche bei der Entwicklung eines Dependable-AI-Systems (W-Modell)\n\t\t\t\t<\/figcaption><\/figure>\n\t\t<\/div>\n\n<p><strong><em><br \/>\nStrategie:<\/em><\/strong> Der Gesamtprozess beginnt mit der Erstellung der Gesch\u00e4ftsstrategie und dem Herausarbeiten der konkreten Potenziale\/Mehrwerte, die von einem KI-System erwartet werden. Daraus werden technische Anforderungen auf Systemebene und ein konkretes L\u00f6sungskonzept abgeleitet.<\/p>\n<p><strong><em>Verl\u00e4sslichkeitsanalysen:<\/em><\/strong> In Abh\u00e4ngigkeit von der Kritikalit\u00e4t des Systems werden auf Systemebene weitere Analysen (z.B. bzgl. funktionaler Sicherheit) durchgef\u00fchrt, um die Anforderungen bez\u00fcglich der Verl\u00e4sslichkeit systematisch zu erheben und um die regulatorischen und gesetzlichen Vorgaben bei der Entwicklung zu ber\u00fccksichtigen. Hier w\u00fcrden beispielsweise Hazard and Risk Analysis (HARA; funktionale Sicherheit) oder Threat Analysis and Risk Assessment (TARA; Security) durchgef\u00fchrt werden, um die \u00fcbergeordneten Safety- und Security-Anforderungen zu identifizieren. Auf Basis dieser und weiterer Analysen sollte dann die Grundstruktur der Verl\u00e4sslichkeitsargumentation erzeugt werden. Die Anforderungen werden sp\u00e4ter gem\u00e4\u00df der Systemarchitektur und gest\u00fctzt durch etablierte Techniken wie FMEA und FTA weiter heruntergebrochen und an Systemkomponenten allokiert. So erhalten auch KI-Komponenten dedizierte Anforderungen bez\u00fcglich ihrer Verl\u00e4sslichkeit.<\/p>\n<p><strong><em>Konstruktion:<\/em><\/strong> Das System wird im Rahmen klassischer Ans\u00e4tze des Systems Engineerings (wie ISO\/IEC 15288 oder 12207) in Teilsysteme zerlegt, die aus Software und Hardware bestehen k\u00f6nnen. Diese Software-Teilsysteme bestehen wiederum aus klassischen Softwarekomponenten und solchen, die KI beinhalten und eine Normal- oder Sicherheitsfunktion des Systems abbilden. Softwarekomponenten werden heutzutage in einem agilen Entwicklungsprozess erstellt (wie z.B. Scrum), der parallel zur Entwicklung der Hardware erfolgt. Auch KI-Komponenten werden \u00fcblicherweise in einem hoch iterativen Prozess entwickelt, der sich aber eher an g\u00e4ngigen Vorgehen aus dem Bereich <a href=\"https:\/\/www.iese.fraunhofer.de\/blog\/was-hat-paul-bocuse-mit-data-science-zu-tun\/\">Data Science<\/a> orientiert (wie CRISP-DM). Wenn Verfahren des Maschinellen Lernens verwendet werden sollen, bedarf es zun\u00e4chst eines geeigneten Trainingsdatensatzes. Dieser sollte basierend auf den Anforderungen systematisch erstellt werden, denn bereits bei den Daten, die genutzt werden, um ein KI-Modell anzulernen, k\u00f6nnen bestimmte Qualit\u00e4ten sichergestellt werden (z.B. in Bezug darauf, dass Daten verwendet werden, welche die intendierten Nutzungskontexte entsprechend ausreichend abdecken). Das entsprechende Vorgehen sollte in der Verl\u00e4sslichkeitsargumentation entsprechend dokumentiert werden. Ausgehend von dem initialen Trainingsdatensatz sollte das Modell inkrementell\/iterativ solange verbessert werden, bis es die vorgegebenen Qualit\u00e4tskriterien einh\u00e4lt. Man spricht in diesem Zusammenhang von der Evaluation bzw. H\u00e4rtung des KI-Modells. Bez\u00fcglich der Evaluation kommen Testdatens\u00e4tze und ggfs. weitere analytische Techniken, wie zum Beispiel aus dem Bereich der Explainable AI (XAI), zum Einsatz. Auf Basis der Ergebnisse erfolgen Anpassungen der Trainingsdaten und ein erneutes Training. Dies kann mehrfach wiederholt werden und auch Hand in Hand mit anderen Ma\u00dfnahmen auf Architekturebene gehen.<\/p>\n<p>Ein zentrales Element f\u00fcr die Sicherstellung einer Dependable AI stellt die Systemarchitektur dar. Hier gibt es z.B. Architekturen, die eine Art Sicherheitscontainer um die KI legen. Diese Safety-Supervisor- oder Simplex-Architekturen \u00fcberschreiben die KI-Entscheidung, falls diese zu einem gef\u00e4hrlichen Verhalten des KI-Systems f\u00fchren w\u00fcrde. Dazu ist es wichtig, z.B. die <a href=\"https:\/\/www.iese.fraunhofer.de\/blog\/kuenstliche-intelligenz-unsicherheiten-quantifizieren-und-managen\/\">Unsicherheit<\/a> der KI-Empfehlung unter bestimmten Nutzungsbedingungen zu kennen und darauf basierend das Risiko einer fehlerhaften Entscheidung zu ermitteln. Die Entwicklung solcher Ma\u00dfnahmen zur Absicherung ist eng mit der Entwicklung der KI-Komponente verzahnt. Erkannte und gem\u00e4\u00df den Anforderungen der Verl\u00e4sslichkeit besonders kritische Schwachstellen werden gezielt adressiert. Letztlich muss die Kombination aus KI-Komponenten und (konventionellen) Ma\u00dfnahmen zur Absicherung so gestaltet sein, dass eine stichhaltige Argumentation bez\u00fcglich der Einhaltung der Anforderungen m\u00f6glich ist.<\/p>\n<p><strong><em>Systemintegration und Qualit\u00e4tssicherung:<\/em> <\/strong>Anschlie\u00dfend werden die Einzelkomponenten des Systems zum Gesamtsystem integriert und im Ganzen validiert. Erst dann kann das System nach Durchlauf definierter Akzeptanz- und Release-Kriterien nach au\u00dfen gegeben werden (z.B. nach geforderten Testing- und Auditing-Prozessen). Die Verl\u00e4sslichkeitsargumentation wird mit den im Rahmen der Qualit\u00e4tssicherung erarbeiteten Evidenzen finalisiert, damit die Einhaltung aller geforderten Anforderungen klar belegt werden kann. Eine Digital Dependability Identity (DDI) sammelt z.B. zentral alle Spezifikationen (formalisiert und verlinkt durch die Verl\u00e4sslichkeitsargumentation als Assurance Case), die f\u00fcr die Dependability des jeweiligen Systems relevant sind und wird gemeinsam mit diesem ausgeliefert.<\/p>\n<p>In der Praxis wird dieser Gesamtprozess zur Konstruktion und Verifikation\/Validation je nach Gr\u00f6\u00dfe und Komplexit\u00e4t des Systems und des Entwicklungsprojekts auch mit mehreren Iterationen durchlaufen.<\/p>\n<p><em><strong>Betrieb<\/strong>:<\/em> Der Lebenszyklus eines KI-Systems endet nicht mit der Bereitstellung des Systems. W\u00e4hrend der Betriebsphase geht es darum, das aktuelle Risiko und die Performanz des Systems zu \u00fcberwachen und aus dem tats\u00e4chlichen Verhalten zu lernen, wie das KI-System bzw. KI-Modell verbessert werden kann (z.B. Field Feedback, DevOps oder Continuous Engineering). Wir sprechen hier von <a href=\"https:\/\/www.iese.fraunhofer.de\/de\/seminare_training\/webinare\/safety-engineering-1.html\">Dynamic Risk Management<\/a>, welches feingliedrig in das Verhalten des Systems eingreifen kann, um ein potenziell erh\u00f6htes Risiko wieder mittels entsprechender Gegenma\u00dfnahmen (wie z.B. Fahren mit geringerer Geschwindigkeit) zu reduzieren. Gibt es andererseits zu einem bestimmten Zeitpunkt ein nur sehr geringes Risiko, kann die Performanz (wieder) erh\u00f6ht werden (also z.B. Fahren mit h\u00f6herer Geschwindigkeit). Mechanismen zur Laufzeit werden noch wichtiger, wenn wir in die Zukunft schauen und von KI-Systemen sprechen, die \u00fcber ihre Laufzeit hinweg weiterlernen und demzufolge ihr Verhalten anpassen k\u00f6nnen. Da man potenziell zum Entwurfszeitpunkt des KI-Systems nicht wissen kann, auf Basis welcher Daten die KI weiterlernt, m\u00fcssen entsprechende Leitplanken f\u00fcr das Verhalten definiert und in entsprechende Mechanismen in die Laufzeit gebracht werden, welche dynamisch das Risiko von Fehlverhalten minimieren.<\/p>\n<h3>Fazit<\/h3>\n<p>Die Nutzung von KI-Systemen er\u00f6ffnet gro\u00dfe M\u00f6glichkeiten und verspricht in den n\u00e4chsten Jahren ein hohes Wirtschaftswachstum. Gleichzeitig herrscht aber auch ein harter globaler Wettbewerb. In Deutschland liegt ein starker Fokus auf industriellen KI-Anwendungen, wie in der Mobilit\u00e4t\/Logistik, der Industrie 4.0 oder der Medizintechnik. Gerade in diesen Branchen ist es von essenzieller Bedeutung, dass KI-Systeme sicher, verl\u00e4sslich und vertrauensw\u00fcrdig sind.<\/p>\n<p>Um diese Qualit\u00e4ten zu garantieren und das Risiko eines KI-Systems transparent und beherrschbar zu machen, m\u00fcssen einige grundlegende Fragen aus Sicht eines Unternehmens beantwortet werden:<\/p>\n<ol>\n<li>Welchen Mehrwert bietet der Einsatz von KI f\u00fcr mein Unternehmen und wie wirkt sich das auf mein Gesch\u00e4ftsmodell aus?<\/li>\n<li>Was sind relevante Normen\/Standards\/Qualit\u00e4tsrichtlinien, die eingehalten werden m\u00fcssen?<\/li>\n<li>Welche Daten brauche ich in welcher Qualit\u00e4t, und lassen sich daraus geeignete KI-Modelle f\u00fcr die beabsichtigten KI-Anwendungen konstruieren?<\/li>\n<li>Wie sieht der Gesamtprozess f\u00fcr das Engineering verl\u00e4sslicher KI-Systeme aus, welcher notwendige Kompetenzen aus dem Systems- und Software-Engineering sowie Data Science multidisziplin\u00e4r zusammenbringt?<\/li>\n<li>Wie kann ich eine Verl\u00e4sslichkeitsargumentation mit geeigneten Evidenzen f\u00fcr mein KI-System aufbauen?<\/li>\n<li>Wie gehe ich insbesondere bez\u00fcglich der sicherheitsgerichteten Entwicklung von Systemen mit KI-Komponenten vor und wie steht dies in Bezug zu etablierten Safety-Normen und -Standards?<\/li>\n<li>Welche Qualit\u00e4ten k\u00f6nnen zur Entwicklungszeit des KI-Systems betrachtet werden und was muss ich zur Laufzeit \u00fcberwachen?<\/li>\n<li>Wie sieht die Architektur meines KI-Systems aus, um die geforderten Normen\/Standards\/Qualit\u00e4tsrichtlinien geeignet umzusetzen?<\/li>\n<li>Wie bewerte ich die reale Performanz meines KI-Systems im Betrieb und wie verbessere\/warte ich das KI-Modell (DevOps)?<\/li>\n<li>Welche Kompetenzen brauche ich im Unternehmen, um meine KI-Anwendungsszenarien zu realisieren und zu warten?<\/li>\n<\/ol>\n<p>Ganzheitliche Referenzmodelle (wie das oben gezeigte W-Modell basierend auf VDE-AR-E 2842-61) helfen dabei, diese Fragen systematisch in einem iterativen, inkrementellen Entwicklungsansatz zu beantworten. Auch wenn an vielen Stellen noch weitere Forschungsarbeit notwendig ist, so sind doch schon heute viele konkrete L\u00f6sungsbausteine verf\u00fcgbar, um verl\u00e4ssliche KI-Systeme zu konstruieren und zu betreiben.<\/p>\n<div class=\"info-box\">\n<h3>Mehr zu Dependable AI<\/h3>\n<p>Einen umfassenden \u00dcberblick \u00fcber \u00bbVerl\u00e4ssliche KI\/Dependable AI\u00ab und die L\u00f6sungsbausteine des Fraunhofer IESE finden Sie hier:<\/p>\n<p>&nbsp;<\/p>\n<ul>\n<li><a href=\"https:\/\/www.iese.fraunhofer.de\/de\/leistungen\/dependable-ai.html\">Leistungen Verl\u00e4ssliche KI\/Dependable AI<\/a><\/li>\n<\/ul>\n<p>&nbsp;<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignleft wp-image-7452 \" src=\"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/cover_morgendenker_1400px-400x400.jpg\" alt=\"Morgen Denker-Podcast (Fraunhofer IESE)\" width=\"242\" height=\"242\" srcset=\"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/cover_morgendenker_1400px-400x400.jpg 400w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/cover_morgendenker_1400px-698x698.jpg 698w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/cover_morgendenker_1400px-150x150.jpg 150w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/cover_morgendenker_1400px-768x768.jpg 768w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/cover_morgendenker_1400px-32x32.jpg 32w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/cover_morgendenker_1400px-50x50.jpg 50w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/cover_morgendenker_1400px-64x64.jpg 64w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/cover_morgendenker_1400px-96x96.jpg 96w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/cover_morgendenker_1400px-128x128.jpg 128w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/cover_morgendenker_1400px-65x65.jpg 65w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/cover_morgendenker_1400px-1320x1320.jpg 1320w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/cover_morgendenker_1400px.jpg 1400w\" sizes=\"auto, (max-width: 242px) 100vw, 242px\" \/><\/p>\n<p>&nbsp;<\/p>\n<p>Dar\u00fcber hinaus greifen wir das Thema Dependable AI auch in unserem <a href=\"https:\/\/www.iese.fraunhofer.de\/de\/media\/podcast.html#podcast02\">MORGEN <em>DENKER<\/em>-Podcast<\/a> zum <a href=\"https:\/\/www.iese.fraunhofer.de\/blog\/25-jahre-fraunhofer-iese\/\">25. Jubil\u00e4um des Fraunhofer IESE<\/a> auf. H\u00f6ren Sie gerne mal rein.<\/p>\n<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>\n<p>Falls Sie Fragen zu \u00bbDependable AI\u00ab haben, nach Partnern im Rahmen \u00f6ffentlich gef\u00f6rderter Forschungsvorhaben suchen oder ein konkretes Problem bei der Absicherung Ihres KI-Systems haben, z\u00f6gern Sie nicht, unsere konkreten Ansprechpartner zu kontaktieren!<\/p>\n<p>&nbsp;<\/p>\n<ul>\n<li><a href=\"mailto: jens.heidrich@iese.fraunhofer.de\">Dr. Jens Heidrich (Division Manager \u00bbSmart Digital Solutions\u00ab)<\/a><\/li>\n<li><a href=\"mailto: daniel.schneider@iese.fraunhofer.de\">Dr. Daniel Schneider (Department Head \u00bbSafety Engineering\u00ab)<\/a><\/li>\n<li><a href=\"mailto: andreas.jedlitschka@iese.fraunhofer.de\">Dr. Andreas Jedlitschka (Department Head \u00bbData Science\u00ab)<\/a><\/li>\n<\/ul>\n<p>______________________________________________________________________<\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"text-decoration: underline;\">Besuchen Sie au\u00dferdem unser Weiterbildungsangebot:<\/span><\/p>\n<p>&nbsp;<\/p>\n<p>Innovatives Praxiswissen und notwendige Kompetenzen bei der <strong>Absicherung von KI in sicherheitskritischen Systemen<\/strong> vermittelt Ihnen au\u00dferdem unsere <a href=\"https:\/\/www.iese.fraunhofer.de\/de\/seminare_training\/data-scientist-assuring-safety.html\">4-t\u00e4gige Schulung \u00bbData Scientist Specialized in Assuring Safety\u00ab (zertifiziert)<\/a>.<\/p>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>K\u00fcnstliche Intelligenz (KI) steckt heutzutage bereits in vielen Systemen: vom Sprachassistenten bis hin zu intelligenten Algorithmen, die unser Verhalten beim Online-Shopping oder in Social Media auswerten. In Zukunft werden uns KI-Systeme noch viel h\u00e4ufiger begegnen und das insbesondere in kritischen&#8230;<\/p>\n","protected":false},"author":18,"featured_media":7483,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[239,211,94,177,18],"tags":[104,170,415,48,57],"coauthors":[44,43,41],"class_list":["post-7446","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-autonomes-fahren","category-digitale-transformation","category-industrie-4-0","category-kuenstliche-intelligenz","category-sicherheit","tag-data-analytics","tag-data-science","tag-dependable-ai-verlaessliche-ki","tag-digitalisierung","tag-innovation"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.3 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Dependable AI \/ Verl\u00e4ssliche KI - Ein \u00dcberblick - Blog des Fraunhofer IESE<\/title>\n<meta name=\"description\" content=\"KI-Systeme werden auch f\u00fcr kritische Anwendungen immer interessanter. Umso wichtiger ist es, diese abzusichern. Das gelingt mit \u00bbDependable AI\u00ab.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.iese.fraunhofer.de\/blog\/dependable-ai\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Dependable AI \/ Verl\u00e4ssliche KI - Ein \u00dcberblick - Blog des Fraunhofer IESE\" \/>\n<meta property=\"og:description\" content=\"KI-Systeme werden auch f\u00fcr kritische Anwendungen immer interessanter. Umso wichtiger ist es, diese abzusichern. Das gelingt mit \u00bbDependable AI\u00ab.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.iese.fraunhofer.de\/blog\/dependable-ai\/\" \/>\n<meta property=\"og:site_name\" content=\"Fraunhofer IESE\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/FraunhoferIESE\/\" \/>\n<meta property=\"article:published_time\" content=\"2021-03-04T07:05:47+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-07-17T06:53:01+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/DependableAI_JensHeidrich.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"748\" \/>\n\t<meta property=\"og:image:height\" content=\"375\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Prof. Dr. Jens Heidrich, Dr. Daniel Schneider, Dr. Andreas Jedlitschka\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@HeidrichJens\" \/>\n<meta name=\"twitter:site\" content=\"@FraunhoferIESE\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Prof. Dr. Jens Heidrich\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"19\u00a0Minuten\" \/>\n\t<meta name=\"twitter:label3\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data3\" content=\"Prof. Dr. Jens Heidrich, Dr. Daniel Schneider, Dr. Andreas Jedlitschka\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/dependable-ai\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/dependable-ai\\\/\"},\"author\":{\"name\":\"Prof. Dr. Jens Heidrich\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#\\\/schema\\\/person\\\/7e609d4ccca8f4a57b9be5c98f7510c1\"},\"headline\":\"Dependable AI \\\/ Verl\u00e4ssliche KI &#8211; Ein \u00dcberblick\",\"datePublished\":\"2021-03-04T07:05:47+00:00\",\"dateModified\":\"2024-07-17T06:53:01+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/dependable-ai\\\/\"},\"wordCount\":4681,\"publisher\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/dependable-ai\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2021\\\/03\\\/DependableAI_JensHeidrich.jpg\",\"keywords\":[\"Data Analytics\",\"Data Science\",\"Dependable AI \\\/ Verl\u00e4ssliche KI\",\"Digitalisierung\",\"Innovation\"],\"articleSection\":[\"Autonomes Fahren\",\"Digitale Transformation\",\"Industrie 4.0\",\"K\u00fcnstliche Intelligenz\",\"Sicherheit\"],\"inLanguage\":\"de\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/dependable-ai\\\/\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/dependable-ai\\\/\",\"name\":\"Dependable AI \\\/ Verl\u00e4ssliche KI - Ein \u00dcberblick - Blog des Fraunhofer IESE\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/dependable-ai\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/dependable-ai\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2021\\\/03\\\/DependableAI_JensHeidrich.jpg\",\"datePublished\":\"2021-03-04T07:05:47+00:00\",\"dateModified\":\"2024-07-17T06:53:01+00:00\",\"description\":\"KI-Systeme werden auch f\u00fcr kritische Anwendungen immer interessanter. Umso wichtiger ist es, diese abzusichern. Das gelingt mit \u00bbDependable AI\u00ab.\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/dependable-ai\\\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/dependable-ai\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/dependable-ai\\\/#primaryimage\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2021\\\/03\\\/DependableAI_JensHeidrich.jpg\",\"contentUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2021\\\/03\\\/DependableAI_JensHeidrich.jpg\",\"width\":748,\"height\":375,\"caption\":\"Dependable AI mit Jens Heidrich (Fraunhofer IESE)\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/dependable-ai\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Startseite\",\"item\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Dependable AI \\\/ Verl\u00e4ssliche KI &#8211; Ein \u00dcberblick\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#website\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/\",\"name\":\"Fraunhofer IESE\",\"description\":\"Blog des Fraunhofer-Institut f\u00fcr Experimentelles Software Engineering\",\"publisher\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#organization\",\"name\":\"Fraunhofer IESE\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2016\\\/08\\\/fhg_iese_logo.png\",\"contentUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2016\\\/08\\\/fhg_iese_logo.png\",\"width\":183,\"height\":50,\"caption\":\"Fraunhofer IESE\"},\"image\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/www.facebook.com\\\/FraunhoferIESE\\\/\",\"https:\\\/\\\/x.com\\\/FraunhoferIESE\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/fraunhoferiese\\\/\",\"https:\\\/\\\/www.youtube.com\\\/c\\\/FraunhoferIESE\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#\\\/schema\\\/person\\\/7e609d4ccca8f4a57b9be5c98f7510c1\",\"name\":\"Prof. Dr. Jens Heidrich\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2019\\\/07\\\/5D3_9689_blog-96x96.jpgdba64d516c31eb234d84810da85eef65\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2019\\\/07\\\/5D3_9689_blog-96x96.jpg\",\"contentUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2019\\\/07\\\/5D3_9689_blog-96x96.jpg\",\"caption\":\"Prof. Dr. Jens Heidrich\"},\"description\":\"Jens Heidrich ist Professor f\u00fcr Angewandte Informatik an der Hochschule Mainz. Er leitete von 2011 bis September 2023 die Hauptabteilung Smart Digital Solutions am Fraunhofer IESE. Im Bereich Prozessmanagement besch\u00e4ftigt er sich mit der kontinuierlichen Verbesserung von Prozessen unter Zuhilfenahme von Best Practices und Messdaten. Er ist Mitglied in diversen Programmkomitees internationaler Konferenzen und seit 2011 im Vorstand der -Fachgruppe \u00bbSoftware-Messung und -Bewertung\u00ab der Gesellschaft f\u00fcr Informatik. Seit Oktober 2023 ist er als Forschungskoordinator im Bereich Zusammenarbeit mit Hochschulen t\u00e4tig.\",\"sameAs\":[\"https:\\\/\\\/x.com\\\/@HeidrichJens\"],\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/author\\\/jens-heidrich\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Dependable AI \/ Verl\u00e4ssliche KI - Ein \u00dcberblick - Blog des Fraunhofer IESE","description":"KI-Systeme werden auch f\u00fcr kritische Anwendungen immer interessanter. Umso wichtiger ist es, diese abzusichern. Das gelingt mit \u00bbDependable AI\u00ab.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.iese.fraunhofer.de\/blog\/dependable-ai\/","og_locale":"de_DE","og_type":"article","og_title":"Dependable AI \/ Verl\u00e4ssliche KI - Ein \u00dcberblick - Blog des Fraunhofer IESE","og_description":"KI-Systeme werden auch f\u00fcr kritische Anwendungen immer interessanter. Umso wichtiger ist es, diese abzusichern. Das gelingt mit \u00bbDependable AI\u00ab.","og_url":"https:\/\/www.iese.fraunhofer.de\/blog\/dependable-ai\/","og_site_name":"Fraunhofer IESE","article_publisher":"https:\/\/www.facebook.com\/FraunhoferIESE\/","article_published_time":"2021-03-04T07:05:47+00:00","article_modified_time":"2024-07-17T06:53:01+00:00","og_image":[{"width":748,"height":375,"url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/DependableAI_JensHeidrich.jpg","type":"image\/jpeg"}],"author":"Prof. Dr. Jens Heidrich, Dr. Daniel Schneider, Dr. Andreas Jedlitschka","twitter_card":"summary_large_image","twitter_creator":"@HeidrichJens","twitter_site":"@FraunhoferIESE","twitter_misc":{"Verfasst von":"Prof. Dr. Jens Heidrich","Gesch\u00e4tzte Lesezeit":"19\u00a0Minuten","Written by":"Prof. Dr. Jens Heidrich, Dr. Daniel Schneider, Dr. Andreas Jedlitschka"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/dependable-ai\/#article","isPartOf":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/dependable-ai\/"},"author":{"name":"Prof. Dr. Jens Heidrich","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#\/schema\/person\/7e609d4ccca8f4a57b9be5c98f7510c1"},"headline":"Dependable AI \/ Verl\u00e4ssliche KI &#8211; Ein \u00dcberblick","datePublished":"2021-03-04T07:05:47+00:00","dateModified":"2024-07-17T06:53:01+00:00","mainEntityOfPage":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/dependable-ai\/"},"wordCount":4681,"publisher":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#organization"},"image":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/dependable-ai\/#primaryimage"},"thumbnailUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/DependableAI_JensHeidrich.jpg","keywords":["Data Analytics","Data Science","Dependable AI \/ Verl\u00e4ssliche KI","Digitalisierung","Innovation"],"articleSection":["Autonomes Fahren","Digitale Transformation","Industrie 4.0","K\u00fcnstliche Intelligenz","Sicherheit"],"inLanguage":"de"},{"@type":"WebPage","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/dependable-ai\/","url":"https:\/\/www.iese.fraunhofer.de\/blog\/dependable-ai\/","name":"Dependable AI \/ Verl\u00e4ssliche KI - Ein \u00dcberblick - Blog des Fraunhofer IESE","isPartOf":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/dependable-ai\/#primaryimage"},"image":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/dependable-ai\/#primaryimage"},"thumbnailUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/DependableAI_JensHeidrich.jpg","datePublished":"2021-03-04T07:05:47+00:00","dateModified":"2024-07-17T06:53:01+00:00","description":"KI-Systeme werden auch f\u00fcr kritische Anwendungen immer interessanter. Umso wichtiger ist es, diese abzusichern. Das gelingt mit \u00bbDependable AI\u00ab.","breadcrumb":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/dependable-ai\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.iese.fraunhofer.de\/blog\/dependable-ai\/"]}]},{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/dependable-ai\/#primaryimage","url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/DependableAI_JensHeidrich.jpg","contentUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/DependableAI_JensHeidrich.jpg","width":748,"height":375,"caption":"Dependable AI mit Jens Heidrich (Fraunhofer IESE)"},{"@type":"BreadcrumbList","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/dependable-ai\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Startseite","item":"https:\/\/www.iese.fraunhofer.de\/blog\/"},{"@type":"ListItem","position":2,"name":"Dependable AI \/ Verl\u00e4ssliche KI &#8211; Ein \u00dcberblick"}]},{"@type":"WebSite","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#website","url":"https:\/\/www.iese.fraunhofer.de\/blog\/","name":"Fraunhofer IESE","description":"Blog des Fraunhofer-Institut f\u00fcr Experimentelles Software Engineering","publisher":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.iese.fraunhofer.de\/blog\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de"},{"@type":"Organization","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#organization","name":"Fraunhofer IESE","url":"https:\/\/www.iese.fraunhofer.de\/blog\/","logo":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#\/schema\/logo\/image\/","url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2016\/08\/fhg_iese_logo.png","contentUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2016\/08\/fhg_iese_logo.png","width":183,"height":50,"caption":"Fraunhofer IESE"},"image":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/FraunhoferIESE\/","https:\/\/x.com\/FraunhoferIESE","https:\/\/www.linkedin.com\/company\/fraunhoferiese\/","https:\/\/www.youtube.com\/c\/FraunhoferIESE"]},{"@type":"Person","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#\/schema\/person\/7e609d4ccca8f4a57b9be5c98f7510c1","name":"Prof. Dr. Jens Heidrich","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2019\/07\/5D3_9689_blog-96x96.jpgdba64d516c31eb234d84810da85eef65","url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2019\/07\/5D3_9689_blog-96x96.jpg","contentUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2019\/07\/5D3_9689_blog-96x96.jpg","caption":"Prof. Dr. Jens Heidrich"},"description":"Jens Heidrich ist Professor f\u00fcr Angewandte Informatik an der Hochschule Mainz. Er leitete von 2011 bis September 2023 die Hauptabteilung Smart Digital Solutions am Fraunhofer IESE. Im Bereich Prozessmanagement besch\u00e4ftigt er sich mit der kontinuierlichen Verbesserung von Prozessen unter Zuhilfenahme von Best Practices und Messdaten. Er ist Mitglied in diversen Programmkomitees internationaler Konferenzen und seit 2011 im Vorstand der -Fachgruppe \u00bbSoftware-Messung und -Bewertung\u00ab der Gesellschaft f\u00fcr Informatik. Seit Oktober 2023 ist er als Forschungskoordinator im Bereich Zusammenarbeit mit Hochschulen t\u00e4tig.","sameAs":["https:\/\/x.com\/@HeidrichJens"],"url":"https:\/\/www.iese.fraunhofer.de\/blog\/author\/jens-heidrich\/"}]}},"jetpack_featured_media_url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2021\/03\/DependableAI_JensHeidrich.jpg","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/posts\/7446","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/users\/18"}],"replies":[{"embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/comments?post=7446"}],"version-history":[{"count":39,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/posts\/7446\/revisions"}],"predecessor-version":[{"id":12716,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/posts\/7446\/revisions\/12716"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/media\/7483"}],"wp:attachment":[{"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/media?parent=7446"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/categories?post=7446"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/tags?post=7446"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/coauthors?post=7446"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}