{"id":3869,"date":"2020-02-20T10:59:11","date_gmt":"2020-02-20T08:59:11","guid":{"rendered":"https:\/\/blog.iese.fraunhofer.de\/?p=3869"},"modified":"2024-01-22T10:47:33","modified_gmt":"2024-01-22T09:47:33","slug":"interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt","status":"publish","type":"post","link":"https:\/\/www.iese.fraunhofer.de\/blog\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\/","title":{"rendered":"Interview: Absicherung von K\u00fcnstlicher Intelligenz \u2013 wenn KI einmal versagt"},"content":{"rendered":"<p class=\"lead\">\u00a0kannDer Einsatz von K\u00fcnstlicher Intelligenz (KI) verbreitet sich zunehmend in der Industrie und in unserem Alltag. Die Chancen von KI \u00fcberwiegen au\u00dferhalb sicherheitskritischer Bereiche. Die Wichtigkeit der <strong>Absicherung von K\u00fcnstlicher Intelligenz<\/strong> innerhalb solcher Bereich nimmt jedoch zu. Was ist mit den Risiken, wenn beispielsweise ein Roboter in der Fertigung versagt und mit einer falschen Bewegung das Leben eines Arbeiters gef\u00e4hrdet? Oder wenn ein autonom fahrendes Fahrzeug eine rote Ampel \u00fcberf\u00e4hrt und dadurch Fu\u00dfg\u00e4nger in eine lebensbedrohliche Situation bringt? Dr. Daniel Schneider, Abteilungsleiter <a href=\"https:\/\/www.iese.fraunhofer.de\/de\/leistungen\/funktionale-sicherheit.html\" target=\"_blank\" rel=\"noopener noreferrer\">Safety Engineering<\/a> und Dr. Andreas Jedlitschka, Abteilungsleiter <a href=\"https:\/\/www.iese.fraunhofer.de\/de\/leistungen\/data.html\" target=\"_blank\" rel=\"noopener noreferrer\">Data Engineering<\/a>, erkl\u00e4ren im Interview, wie das Fraunhofer IESE KI absichert.<\/p>\n<h2>Wie ist der aktuelle Forschungsstand auf dem Gebiet der K\u00fcnstlichen Intelligenz?<\/h2>\n<p><strong>Andreas Jedlitschka:<\/strong> Immer mehr Produkte enthalten Komponenten, die auf K\u00fcnstlicher Intelligenz und maschinellen Lernverfahren beruhen. Dabei reicht die Bandbreite von Produkt- und Musikempfehlungen im Internet \u00fcber die Unterst\u00fctzung von Radiologen bei der Krebsdiagnostik hin zu Verkehrsschild- und Hinderniserkennung im Stra\u00dfenverkehr. Weitere aktuelle Beispiele sind au\u00dferdem die Identifikation von Objekten in Bilddaten, die Erkennung menschlicher Sprache sowie automatische Text\u00fcbersetzung.<\/p>\n<p><strong>Daniel Schneider:<\/strong> Dank K\u00fcnstlicher Intelligenz r\u00fccken auch einstige Zukunftsvisionen, wie zum Beispiel <a href=\"https:\/\/www.iese.fraunhofer.de\/blog\/autonom-oder-vielleicht-doch-nur-hochautomatisiert-was-ist-eigentlich-der-unterschied\/\" target=\"_blank\" rel=\"noopener noreferrer\">autonome<\/a> Fahrzeuge, in greifbare N\u00e4he.<\/p>\n<h2>Welche Fragen zur Absicherung von K\u00fcnstlicher Intelligenz sind noch nicht abschlie\u00dfend gekl\u00e4rt?<\/h2>\n<p><strong>Daniel Schneider:<\/strong> Es wird schnell deutlich, dass bei abnehmender M\u00f6glichkeit menschlicher Einflussnahme das Risiko einer Fehlfunktion beziehungsweise der Gef\u00e4hrdung der Umwelt durch das System selbst minimiert werden muss. In solchen F\u00e4llen nimmt die Relevanz der Absicherung von K\u00fcnstlicher Intelligenz zu. Damit ist auch die Frage verbunden, in welcher Form ein Nachweis der Sicherheit erbracht werden kann. Die Frage stellt sich \u00fcberall dort, wo ein Versagen einer maschinell erlernten L\u00f6sung hohe Risiken mit sich bringt, besonders f\u00fcr die k\u00f6rperliche Unversehrtheit von Menschen. Dies erfordert spezielle Ma\u00dfnahmen zur Garantie der Sicherheit von Systemen mit KI-Anteilen, wobei Sicherheit hier nicht nur funktionale Sicherheit umfasst, sondern auch die grunds\u00e4tzliche Sicherheit der Normalfunktion.<\/p>\n<p><strong>Andreas Jedlitschka:<\/strong> Ein hoher Stellenwert kommt dabei unter anderem der Qualit\u00e4t der Daten zu, die f\u00fcr das Training von neuronalen Netzwerken verwendet werden. Trotzdem k\u00f6nnen in offenen Umgebungen auch immer Situationen auftreten, die bei der Entwicklung eines technischen Systems nicht ber\u00fccksichtigt wurden. Die F\u00e4higkeit, mit solchen Situationen umzugehen und auch in diesen ein verl\u00e4ssliches Verhalten zu zeigen, wird als Resilienz bezeichnet. Am Fraunhofer IESE werden Technologien und Methoden entwickelt, die Ingenieure bei der Erstellung solcher <a href=\"https:\/\/www.iese.fraunhofer.de\/de\/leistungen\/dependable-ai.html\">verl\u00e4sslichen und oft sicherheitskritischen Systeme<\/a> unterst\u00fctzen.<\/p>\n<h2>Was bedeutet Absicherung von K\u00fcnstlicher Intelligenz \u00fcberhaupt?<\/h2>\n<p><strong>Daniel Schneider:<\/strong> Sicherheit bedeutet im Allgemeinen nicht, dass kein Schaden entstehen kann, sondern, dass das Risiko akzeptabel ist. Bleiben wir im Zusammenhang mit K\u00fcnstlicher Intelligenz bei dem Beispiel selbstfahrender Autos, stellt sich dort etwa die Frage, welches Restrisiko akzeptiert werden kann \u2013 was aktuell noch nicht abschlie\u00dfend gekl\u00e4rt ist. Bestimmt will man aber zumindest sicherstellen, dass autonome Fahrzeuge deutlich weniger Unf\u00e4lle als von Menschen gesteuerte Autos verursachen. Unabh\u00e4ngig davon, wie gut autonomes Fahren zuk\u00fcnftig funktioniert, wird die Zahl der Unf\u00e4lle wohl nie ganz auf Null zur\u00fcckgehen. Auch ein schnell reagierendes automatisiertes System braucht ja zum Beispiel je nach Geschwindigkeit einen gewissen Bremsweg und es kann auch in Zukunft vermutlich nicht jede Verkehrssituation (z.B. mit Fu\u00dfg\u00e4ngern) vorhergesehen werden. Daher wird es immer ein Restrisiko geben, mit dem eine Gesellschaft leben muss.<\/p>\n<h2>Welche Rolle kann die Absicherung von K\u00fcnstlicher Intelligenz bei der Risikominimierung spielen?<\/h2>\n<p><strong>Daniel Schneider:<\/strong> Sicherheitsrelevante Entscheidungen in Autos werden zunehmend von Software getroffen. Dort wird beispielsweise festgelegt, welche der m\u00f6glichen Reaktionen in welcher der zu erwartenden Situationen am besten geeignet ist, und es wird \u00fcberpr\u00fcft, dass die Software das erw\u00fcnschte Verhalten auch tats\u00e4chlich leistet. Allerdings funktioniert dies nur, solange die Situationen im Voraus bekannt sind, sodass die Reaktionen darauf in der Software festgelegt werden k\u00f6nnen.<\/p>\n<p><strong>Andreas Jedlitschka: <\/strong>Wenn die Situationen zu kompliziert und zahlreich sind, um alles vorab festzulegen, k\u00f6nnen Verfahren der K\u00fcnstlichen Intelligenz weiterhelfen. Hier gibt es sehr leistungsf\u00e4hige, die oft erstaunlich gute L\u00f6sungen liefern. Allerdings ist nicht sichergestellt, dass ein KI-Verfahren verl\u00e4sslich stets gute Ergebnisse liefert. Das ist jedoch eine Forderung, die man an ein autonomes Fahrzeug stellen wird.<\/p>\n<p><strong>Daniel Schneider:<\/strong> Denkbar sind vielleicht auch kombinierte Ans\u00e4tze, in welchen zum Beispiel eine KI-Komponente sich anbahnende gef\u00e4hrliche Situationen fr\u00fchzeitig erkennt und so eine Art vorausschauendes Fahren erm\u00f6glicht. Allerdings darf die KI-Komponente dabei nie die letzte Ebene der Verteidigung sein.<\/p>\n<div class=\"info-box\">\n<h3>Seminar: Absicherung von K\u00fcnstlicher Intelligenz<\/h3>\n<p>Erfahren Sie mehr \u00fcber die Sicherheit von K\u00fcnstlicher Intelligenz in unserem Seminar <a href=\"https:\/\/www.iese.fraunhofer.de\/de\/seminare_training\/data-scientist-assuring-safety.html\">Data Scientist Specialized in Assuring Safety<\/a><\/p>\n<p><a href=\"https:\/\/www.iese.fraunhofer.de\/de\/seminare_training\/data-scientist-assuring-safety.html#cop5\" target=\"_blank\" rel=\"noopener noreferrer\"><br \/>\n\u00bbJETZT ANMELDEN\u00ab<\/a><\/p>\n<\/div>\n<h2>Wie kann man mit diesem Wissen um die Restunsicherheit umgehen und worauf muss geachtet werden?<\/h2>\n<p><strong>Andreas Jedlitschka:<\/strong> Der Ausschluss erkennbarer Fehlerquellen und eine m\u00f6glichst verl\u00e4ssliche Einsch\u00e4tzung der Unsicherheit im bereitgestellten Ergebnis sind hier essenziell. Eine datengetriebene Komponente zur Verkehrsschildererkennung sollte beispielsweise nicht nur die Information liefern, dass ihre Auswertung verf\u00fcgbarer Daten auf das Vorhandensein eines Vorfahrtsschildes schlie\u00dfen l\u00e4sst, sondern auch Informationen \u00fcber das Ma\u00df an Unsicherheit in dieser Auswertung. Zum Beispiel bietet das Wissen um schlechte Lichtverh\u00e4ltnisse oder eine verschmutzte Kameralinse allein wenig Informationsgewinn bei der korrekten Bestimmung eines Verkehrsschilds; es hilft aber dabei, die Unsicherheit im bereitgestellten Ergebnis zu beurteilen. Dies tr\u00e4gt entscheidend zu einer besseren Nachvollziehbarkeit der von KI getroffenen Entscheidungen und Ergebnisse bei, sodass sich diese bei Bedarf auch hinterfragen lassen. Und das hat wiederum Einfluss auf die Genauigkeit k\u00fcnftiger Entscheidungen.<\/p>\n<h2>Was passiert, wenn KI-L\u00f6sungen doch einmal versagen?<\/h2>\n<p><strong>Daniel Schneider:<\/strong> Eine Strategie kann darin bestehen, die k\u00fcnstlich intelligenten Systeme mit konventioneller Software zu \u00fcberwachen. Oft ist es viel einfacher zu \u00fcberpr\u00fcfen, ob eine Reaktion sicher ist, als die Reaktion selbst zu bestimmen. \u00dcbertragen auf das selbstfahrende Auto bedeutet das, dass eine KI-L\u00f6sung mit all ihren St\u00e4rken und Schw\u00e4chen dazu genutzt werden k\u00f6nnte, mit komplizierten Sachverhalten umzugehen. Und sollte diese KI-L\u00f6sung einmal versagen, so k\u00f6nnte eine konventionelle Software verhindern, dass daraus eine unsichere Situation entsteht. Diese Software bildet quasi den Rettungsschirm. Weil es sich dabei um \u00bbnormale\u00ab Software handelt, kann deren Funktion genau nachvollzogen werden, sodass ein Versagen der KI-L\u00f6sung ohne ernste Folgen bleibt. K\u00fcnstliche Intelligenz kann also selbstfahrende Autos weitgehend sicher machen, wenn sie mit klassischen Algorithmen verbunden bleibt. So beh\u00e4lt der Ingenieur auch in Zukunft die Kontrolle, nicht allein der Computer.<\/p>\n<h2>Kann man also davon ausgehen, dass KI in sicherheitskritischen Systemen eine st\u00e4rkere Akzeptanz finden wird?<\/h2>\n<p><strong>Andreas Jedlitschka:<\/strong> Ja, davon bin ich \u00fcberzeugt. Der eben beschriebene Rettungsschirm wird in Kombination mit neuen Verfahren aus der KI-Welt dabei helfen, einsatzf\u00e4hige, sichere Systeme zu entwickeln und zu betreiben. Dazu arbeiten wir zum Beispiel an automatisierten Verfahren zur Beurteilung und Sicherstellung der Datenqualit\u00e4t beim Lernen und Benutzen von KI sowie an der Erweiterung der Verfahren um eine Selbsteinsch\u00e4tzung bez\u00fcglich der Unsicherheit des Ergebnisses durch die KI-Komponente. Eine k\u00fcrzlich durchgef\u00fchrte Studie hat gezeigt, dass die Entwicklungsprozesse f\u00fcr die KI-Komponenten Einfluss auf die Sicherheit haben \u2013 somit ist nicht jeder KI-Ansatz gleich gut f\u00fcr unterschiedliche Datenqualit\u00e4ten geeignet. Zusammenfassend denke ich, dass ein besseres Verst\u00e4ndnis der Chancen und Risiken von KI im Allgemeinen auch zu einer st\u00e4rkeren Verbreitung f\u00fchrt. Wichtig ist: Auch bei der KI gilt, die Chancen zu nutzen, ohne die Risiken au\u00dfer Acht zu lassen.<\/p>\n<h4><em>Das Interview f\u00fchrte Claudia Reis,<\/em><br \/>\n<em>Pressereferentin Fraunhofer IESE.<\/em><\/h4>\n<div class=\"info-box\">\n<p><strong>Bleiben Sie weiterhin neugierig!<\/strong><\/p>\n<p>&nbsp;<\/p>\n<p>Wenn Sie mehr zum Stand der Technik und den Herausforderungen bei der <strong>Absicherung von KI in sicherheitskritischen Systemen<\/strong> erfahren wollen, besuchen Sie unsere <a href=\"https:\/\/www.iese.fraunhofer.de\/de\/seminare_training\/data-scientist-assuring-safety.html\">4-t\u00e4gige Weiterbildung zum zertifizierten \u00bbData Scientist Specialized in Assuring Safety\u00ab<\/a>.<\/p>\n<\/div>\n<h4><\/h4>\n","protected":false},"excerpt":{"rendered":"<p>\u00a0kannDer Einsatz von K\u00fcnstlicher Intelligenz (KI) verbreitet sich zunehmend in der Industrie und in unserem Alltag. Die Chancen von KI \u00fcberwiegen au\u00dferhalb sicherheitskritischer Bereiche. Die Wichtigkeit der Absicherung von K\u00fcnstlicher Intelligenz innerhalb solcher Bereich nimmt jedoch zu. Was ist mit&#8230;<\/p>\n","protected":false},"author":30,"featured_media":3891,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[239,177,18],"tags":[415,231],"coauthors":[40],"class_list":["post-3869","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-autonomes-fahren","category-kuenstliche-intelligenz","category-sicherheit","tag-dependable-ai-verlaessliche-ki","tag-safety-engineering"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.5 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Absicherung von K\u00fcnstlicher Intelligenz - Fraunhofer IESE Blog<\/title>\n<meta name=\"description\" content=\"Wir erkl\u00e4ren, wie durch die Absicherung von K\u00fcnstlicher Intelligenz Risiken in sicherheitskritischen Bereichen minimiert werden.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.iese.fraunhofer.de\/blog\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Absicherung von K\u00fcnstlicher Intelligenz - Fraunhofer IESE Blog\" \/>\n<meta property=\"og:description\" content=\"Wir erkl\u00e4ren, wie durch die Absicherung von K\u00fcnstlicher Intelligenz Risiken in sicherheitskritischen Bereichen minimiert werden.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.iese.fraunhofer.de\/blog\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\/\" \/>\n<meta property=\"og:site_name\" content=\"Fraunhofer IESE\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/FraunhoferIESE\/\" \/>\n<meta property=\"article:published_time\" content=\"2020-02-20T08:59:11+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-01-22T09:47:33+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2019\/07\/5D3_7584-e1564467483789.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1138\" \/>\n\t<meta property=\"og:image:height\" content=\"759\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Claudia Reis\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@FraunhoferIESE\" \/>\n<meta name=\"twitter:site\" content=\"@FraunhoferIESE\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Claudia Reis\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"7\u00a0Minuten\" \/>\n\t<meta name=\"twitter:label3\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data3\" content=\"Claudia Reis\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\\\/\"},\"author\":{\"name\":\"Claudia Reis\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#\\\/schema\\\/person\\\/74379e9d949815723fc48914fe08afb1\"},\"headline\":\"Interview: Absicherung von K\u00fcnstlicher Intelligenz \u2013 wenn KI einmal versagt\",\"datePublished\":\"2020-02-20T08:59:11+00:00\",\"dateModified\":\"2024-01-22T09:47:33+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\\\/\"},\"wordCount\":1301,\"publisher\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2019\\\/07\\\/5D3_7584-e1564467483789.jpg\",\"keywords\":[\"Dependable AI \\\/ Verl\u00e4ssliche KI\",\"Safety Engineering\"],\"articleSection\":[\"Autonomes Fahren\",\"K\u00fcnstliche Intelligenz\",\"Sicherheit\"],\"inLanguage\":\"de\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\\\/\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\\\/\",\"name\":\"Absicherung von K\u00fcnstlicher Intelligenz - Fraunhofer IESE Blog\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2019\\\/07\\\/5D3_7584-e1564467483789.jpg\",\"datePublished\":\"2020-02-20T08:59:11+00:00\",\"dateModified\":\"2024-01-22T09:47:33+00:00\",\"description\":\"Wir erkl\u00e4ren, wie durch die Absicherung von K\u00fcnstlicher Intelligenz Risiken in sicherheitskritischen Bereichen minimiert werden.\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\\\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\\\/#primaryimage\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2019\\\/07\\\/5D3_7584-e1564467483789.jpg\",\"contentUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2019\\\/07\\\/5D3_7584-e1564467483789.jpg\",\"width\":1138,\"height\":759,\"caption\":\"Dr. Daniel Schneider (links) und Dr. Andreas Jedlitschka vom Fraunhofer IESE erkl\u00e4ren im Interview, wie es um die Absicherung von K\u00fcnstlicher Intelligenz steht.\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Startseite\",\"item\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Interview: Absicherung von K\u00fcnstlicher Intelligenz \u2013 wenn KI einmal versagt\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#website\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/\",\"name\":\"Fraunhofer IESE\",\"description\":\"Blog des Fraunhofer-Institut f\u00fcr Experimentelles Software Engineering\",\"publisher\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#organization\",\"name\":\"Fraunhofer IESE\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2016\\\/08\\\/fhg_iese_logo.png\",\"contentUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2016\\\/08\\\/fhg_iese_logo.png\",\"width\":183,\"height\":50,\"caption\":\"Fraunhofer IESE\"},\"image\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/www.facebook.com\\\/FraunhoferIESE\\\/\",\"https:\\\/\\\/x.com\\\/FraunhoferIESE\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/fraunhoferiese\\\/\",\"https:\\\/\\\/www.youtube.com\\\/c\\\/FraunhoferIESE\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#\\\/schema\\\/person\\\/74379e9d949815723fc48914fe08afb1\",\"name\":\"Claudia Reis\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2019\\\/08\\\/claudia_reis_blog-5D3_7818-96x96.jpg0dc6e6250bf7a6626f832388dcba7f02\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2019\\\/08\\\/claudia_reis_blog-5D3_7818-96x96.jpg\",\"contentUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2019\\\/08\\\/claudia_reis_blog-5D3_7818-96x96.jpg\",\"caption\":\"Claudia Reis\"},\"description\":\"Claudia Reis ist Teamleiterin und Pressereferentin in der Abteilung Corporate Communications &amp; Technology Marketing am Fraunhofer IESE. Nach ihrem Abschluss als Diplom-Kauffrau an der Universit\u00e4t Trier mit den Schwerpunkten Marketing und Statistik arbeitete sie viele Jahre im Bereich Public Relations\\\/Investor Relations in Unternehmen der IT-Branche, zuletzt als Leiterin Public Relations\\\/Investor Relations bei der proALPHA Business Solutions GmbH.\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/author\\\/claudia-reis\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Absicherung von K\u00fcnstlicher Intelligenz - Fraunhofer IESE Blog","description":"Wir erkl\u00e4ren, wie durch die Absicherung von K\u00fcnstlicher Intelligenz Risiken in sicherheitskritischen Bereichen minimiert werden.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.iese.fraunhofer.de\/blog\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\/","og_locale":"de_DE","og_type":"article","og_title":"Absicherung von K\u00fcnstlicher Intelligenz - Fraunhofer IESE Blog","og_description":"Wir erkl\u00e4ren, wie durch die Absicherung von K\u00fcnstlicher Intelligenz Risiken in sicherheitskritischen Bereichen minimiert werden.","og_url":"https:\/\/www.iese.fraunhofer.de\/blog\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\/","og_site_name":"Fraunhofer IESE","article_publisher":"https:\/\/www.facebook.com\/FraunhoferIESE\/","article_published_time":"2020-02-20T08:59:11+00:00","article_modified_time":"2024-01-22T09:47:33+00:00","og_image":[{"width":1138,"height":759,"url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2019\/07\/5D3_7584-e1564467483789.jpg","type":"image\/jpeg"}],"author":"Claudia Reis","twitter_card":"summary_large_image","twitter_creator":"@FraunhoferIESE","twitter_site":"@FraunhoferIESE","twitter_misc":{"Verfasst von":"Claudia Reis","Gesch\u00e4tzte Lesezeit":"7\u00a0Minuten","Written by":"Claudia Reis"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\/#article","isPartOf":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\/"},"author":{"name":"Claudia Reis","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#\/schema\/person\/74379e9d949815723fc48914fe08afb1"},"headline":"Interview: Absicherung von K\u00fcnstlicher Intelligenz \u2013 wenn KI einmal versagt","datePublished":"2020-02-20T08:59:11+00:00","dateModified":"2024-01-22T09:47:33+00:00","mainEntityOfPage":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\/"},"wordCount":1301,"publisher":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#organization"},"image":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\/#primaryimage"},"thumbnailUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2019\/07\/5D3_7584-e1564467483789.jpg","keywords":["Dependable AI \/ Verl\u00e4ssliche KI","Safety Engineering"],"articleSection":["Autonomes Fahren","K\u00fcnstliche Intelligenz","Sicherheit"],"inLanguage":"de"},{"@type":"WebPage","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\/","url":"https:\/\/www.iese.fraunhofer.de\/blog\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\/","name":"Absicherung von K\u00fcnstlicher Intelligenz - Fraunhofer IESE Blog","isPartOf":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\/#primaryimage"},"image":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\/#primaryimage"},"thumbnailUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2019\/07\/5D3_7584-e1564467483789.jpg","datePublished":"2020-02-20T08:59:11+00:00","dateModified":"2024-01-22T09:47:33+00:00","description":"Wir erkl\u00e4ren, wie durch die Absicherung von K\u00fcnstlicher Intelligenz Risiken in sicherheitskritischen Bereichen minimiert werden.","breadcrumb":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.iese.fraunhofer.de\/blog\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\/"]}]},{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\/#primaryimage","url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2019\/07\/5D3_7584-e1564467483789.jpg","contentUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2019\/07\/5D3_7584-e1564467483789.jpg","width":1138,"height":759,"caption":"Dr. Daniel Schneider (links) und Dr. Andreas Jedlitschka vom Fraunhofer IESE erkl\u00e4ren im Interview, wie es um die Absicherung von K\u00fcnstlicher Intelligenz steht."},{"@type":"BreadcrumbList","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/interview-absicherung-von-kuenstlicher-intelligenz-wenn-ki-einmal-versagt\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Startseite","item":"https:\/\/www.iese.fraunhofer.de\/blog\/"},{"@type":"ListItem","position":2,"name":"Interview: Absicherung von K\u00fcnstlicher Intelligenz \u2013 wenn KI einmal versagt"}]},{"@type":"WebSite","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#website","url":"https:\/\/www.iese.fraunhofer.de\/blog\/","name":"Fraunhofer IESE","description":"Blog des Fraunhofer-Institut f\u00fcr Experimentelles Software Engineering","publisher":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.iese.fraunhofer.de\/blog\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de"},{"@type":"Organization","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#organization","name":"Fraunhofer IESE","url":"https:\/\/www.iese.fraunhofer.de\/blog\/","logo":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#\/schema\/logo\/image\/","url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2016\/08\/fhg_iese_logo.png","contentUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2016\/08\/fhg_iese_logo.png","width":183,"height":50,"caption":"Fraunhofer IESE"},"image":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/FraunhoferIESE\/","https:\/\/x.com\/FraunhoferIESE","https:\/\/www.linkedin.com\/company\/fraunhoferiese\/","https:\/\/www.youtube.com\/c\/FraunhoferIESE"]},{"@type":"Person","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#\/schema\/person\/74379e9d949815723fc48914fe08afb1","name":"Claudia Reis","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2019\/08\/claudia_reis_blog-5D3_7818-96x96.jpg0dc6e6250bf7a6626f832388dcba7f02","url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2019\/08\/claudia_reis_blog-5D3_7818-96x96.jpg","contentUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2019\/08\/claudia_reis_blog-5D3_7818-96x96.jpg","caption":"Claudia Reis"},"description":"Claudia Reis ist Teamleiterin und Pressereferentin in der Abteilung Corporate Communications &amp; Technology Marketing am Fraunhofer IESE. Nach ihrem Abschluss als Diplom-Kauffrau an der Universit\u00e4t Trier mit den Schwerpunkten Marketing und Statistik arbeitete sie viele Jahre im Bereich Public Relations\/Investor Relations in Unternehmen der IT-Branche, zuletzt als Leiterin Public Relations\/Investor Relations bei der proALPHA Business Solutions GmbH.","url":"https:\/\/www.iese.fraunhofer.de\/blog\/author\/claudia-reis\/"}]}},"jetpack_featured_media_url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2019\/07\/5D3_7584-e1564467483789.jpg","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/posts\/3869","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/users\/30"}],"replies":[{"embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/comments?post=3869"}],"version-history":[{"count":22,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/posts\/3869\/revisions"}],"predecessor-version":[{"id":9998,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/posts\/3869\/revisions\/9998"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/media\/3891"}],"wp:attachment":[{"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/media?parent=3869"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/categories?post=3869"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/tags?post=3869"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/coauthors?post=3869"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}