{"id":4780,"date":"2020-02-04T09:18:11","date_gmt":"2020-02-04T07:18:11","guid":{"rendered":"https:\/\/blog.iese.fraunhofer.de\/?p=4780"},"modified":"2025-06-02T09:48:56","modified_gmt":"2025-06-02T07:48:56","slug":"welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen","status":"publish","type":"post","link":"https:\/\/www.iese.fraunhofer.de\/blog\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\/","title":{"rendered":"Welche Gesetze, Normen und Forschungsinitiativen gibt es, um k\u00fcnstliche Intelligenz und autonome Systeme sicher zu machen?"},"content":{"rendered":"<p class=\"lead\">Mit dieser Frage sind wir, Dr.-Ing. Rasmus Adler als \u00bbProgramm-Manager f\u00fcr Autonome Systeme\u00ab am Fraunhofer IESE und Dr. Patrik Feth als Mitglied der Gruppe \u00bbAdvanced Safety Functions &amp; Standards\u00ab bei der SICK AG, immer wieder konfrontiert. Deswegen widmen wir uns in diesem Beitrag der Frage nach Normen f\u00fcr autonome Systeme und geben eine \u00dcbersicht \u00fcber Bestrebungen, den Einsatz von K\u00fcnstlicher Intelligenz in sicherheitskritischen Systemen zu regeln. Wir hatten diese \u00dcbersicht urspr\u00fcnglich f\u00fcr uns erstellt, da wir ganz bewusst ausw\u00e4hlen wollten, in welchen Forschungsgruppen und Normierungsgremien wir uns mit unserer Expertise einbringen. Mit diesem Beitrag wollen wir den Austausch der Forschungs- und Normierungsgemeinde im Bereich der Safety-Absicherung von KI st\u00e4rken und Synergien schaffen. Wir freuen uns auf Feedback und werden diesbez\u00fcglich den Artikel auch regelm\u00e4\u00dfig anpassen.<\/p>\n<p>Grunds\u00e4tzlich herrscht Einigkeit dar\u00fcber, dass K\u00fcnstliche Intelligenz Leitplanken braucht. Die Vorstellungen dar\u00fcber, was \u00bbK\u00fcnstliche Intelligenz (KI)\u00ab ist, gehen aber aktuell noch auseinander. Es gibt auch noch keine Einigkeit dar\u00fcber, wie die Leitplanken in Form von Gesetzen und Normen umgesetzt werden sollen. Allerdings gibt es weltweit viele Bestrebungen, einen Konsens herzustellen, und erste Arbeitsergebnisse liegen ebenfalls bereits vor.<\/p>\n<h3>Gibt es schon Normen f\u00fcr autonome Systeme?<\/h3>\n<p>Mit der Definition von KI besch\u00e4ftigt sich beispielsweise aktuell das Komitee <a href=\"https:\/\/www.iso.org\/committee\/6794475.html\" target=\"_blank\" rel=\"noopener noreferrer\">ISO\/IEC JTC 1\/SC 42<\/a>. Erste Leitplanken f\u00fcr eine KI wurden auf europ\u00e4ischer Ebene von einer hochrangigen Expertengruppe entworfen. Die \u00bb<a href=\"https:\/\/ec.europa.eu\/digital-single-market\/en\/news\/ethics-guidelines-trustworthy-ai\" target=\"_blank\" rel=\"noopener noreferrer\">Ethik-Leitlinien f\u00fcr eine vertrauensw\u00fcrdige KI<\/a>\u00ab wurden 2018 ver\u00f6ffentlicht. Diese Leitlinien basieren auf der Annahme, dass alle gesetzlichen Rechte und Pflichten, die f\u00fcr die Prozesse und Aktivit\u00e4ten zur Entwicklung, Einf\u00fchrung und Nutzung von KI-Systemen gelten, auch weiterhin verbindlich sein werden und entsprechend zu beachten sind (<a href=\"https:\/\/ec.europa.eu\/digital-single-market\/en\/news\/ethics-guidelines-trustworthy-ai\" target=\"_blank\" rel=\"noopener noreferrer\">Seite 8<\/a>). Zu diesen Gesetzen z\u00e4hlt das <a href=\"https:\/\/de.wikipedia.org\/wiki\/Produktsicherheitsgesetz_(Deutschland)\" target=\"_blank\" rel=\"noopener noreferrer\">Produktsicherheitsgesetz<\/a> mit der dazugeh\u00f6rigen Maschinenrichtlinie, die f\u00fcr die Safety-Thematik von besonderer Bedeutung sind.<\/p>\n<p>Die aktuellen Gesetze machen aber keine konkreten Vorgaben bez\u00fcglich der Entwicklung safety-kritischer Systeme. Es wird nur \u00fcber verschiedene <a href=\"https:\/\/quality-engineering.industrie.de\/allgemein\/stand-der-technik-im-rahmen-der-produkthaftung\/\" target=\"_blank\" rel=\"noopener noreferrer\">Wege<\/a> gefordert, sich an den Stand der Wissenschaft und Technik zu halten. An dieser Stelle kommen Normen ins Spiel, denn Normen sollen diesen Stand bestm\u00f6glich widerspiegeln. Dazu m\u00fcssen sie regelm\u00e4\u00dfig bez\u00fcglich neuer technologischer Entwicklungen angepasst werden. Traditionell erfolgen diese Anpassungen eher reaktiv. Vertreter aus der Industrie einigen sich auf ein Mindestma\u00df, das als aktueller Standard angesehen werden kann. In Bezug auf die Verwendung von KI in sicherheitskritischen autonomen Systemen wird allerdings verst\u00e4rkt ein proaktiver Ansatz verfolgt. Safety-Experten aus Forschung und Anwendung erarbeiten gemeinsam Handlungsempfehlungen und Anwendungsregeln. Im Folgenden fokussieren wir uns auf Arbeiten und Arbeitsgruppen bez\u00fcglich dieses proaktiven Ansatzes.<\/p>\n<h3>Bereits ver\u00f6ffentlichte Normen f\u00fcr autonome Systeme (einschlie\u00dflich Technical Reports, DIN SPECs, DKE Anwendungsregeln usw.)<\/h3>\n<p>In dieser Liste f\u00fchren wir bereits ver\u00f6ffentlichte Dokumente aus Normierungsgremien auf, die KI und autonome Systeme betreffen. Zum aktuellen Zeitpunkt befinden sich viele weitere Dokumente in der Vorbereitung und werden demn\u00e4chst publiziert werden. Siehe hierzu die Liste unten zu den laufenden Initiativen. Gerne erg\u00e4nzen wir diese Liste um weitere Elemente. Nutzen Sie hierzu einfach die Kommentarfunktion unten.<\/p>\n<ul>\n<li><strong>DIN SPEC 92001-1<\/strong><br \/>\nDas Ziel der DIN SPEC 92001 ist es, einen qualit\u00e4tssichernden und transparenten Lebenszyklus f\u00fcr KI-Module zu etablieren. Im ersten Teil der geplanten 92001-Serie wird hierf\u00fcr das Rahmenwerk aufgesetzt.<br \/>\n<a href=\"https:\/\/www.din.de\/de\/wdc-beuth:din21:288723757\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.din.de\/de\/wdc-beuth:din21:288723757<\/a><\/li>\n<li><strong>UL4600<\/strong><br \/>\nBislang in einer Draft-Version ver\u00f6ffentlicht, setzt UL4600 den Fokus auf das Aufstellen eines Safety Cases f\u00fcr autonome Systeme und gibt hierf\u00fcr einen Rahmen vor. Das Fraunhofer IESE ist im Review-Komitee, um mit seinen Industrieerfahrungen und seiner Forschungsexpertise zu unterst\u00fctzen.<br \/>\n<a href=\"https:\/\/edge-case-research.com\/ul4600\/\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/edge-case-research.com\/ul4600\/<\/a><\/li>\n<li><strong>ISO\/PAS 21448<br \/>\n<\/strong>F\u00fcr den Automotive-Sektor entstanden, besch\u00e4ftigt sich diese Norm mit den Grenzen der sinnvollen Verwendbarkeit von Algorithmen und Sensorsystemen und betrachtet die neue Fehlerklasse der funktionalen Unzul\u00e4nglichkeiten.<br \/>\n<a href=\"https:\/\/www.iso.org\/standard\/70939.html\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.iso.org\/standard\/70939.html<\/a> <strong><br \/>\n<\/strong><\/li>\n<li><strong>ISO\/IEC 20546<\/strong><br \/>\nDiese Norm legt grundlegende Begriffe f\u00fcr Big Data fest. Die Begriffe <em>K\u00fcnstliche Intelligenz<\/em> oder <em>Maschinelles Lernen<\/em> werden in diesem Dokument jedoch nicht erw\u00e4hnt.<br \/>\n<a href=\"https:\/\/www.iso.org\/standard\/68305.html\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.iso.org\/standard\/68305.html<\/a><\/li>\n<li><strong>ISO\/IEC TR 20547-2<\/strong><br \/>\nDie 20547 Reihe soll eine Referenzarchitektur f\u00fcr Big Data aufstellen. In diesem zweiten Teil werden Use Cases aufgef\u00fchrt.<br \/>\n<a href=\"https:\/\/www.iso.org\/standard\/71276.html\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.iso.org\/standard\/71276.html<\/a><\/li>\n<li><strong>ISO\/IEC TR 20547-5<\/strong><br \/>\nDer f\u00fcnfte Teil der 20547 Reihe gibt einen \u00dcberblick \u00fcber Standards, die relevant f\u00fcr Big Data sind, und zwar sowohl existierende als auch in Entwicklung befindliche.<br \/>\n<a href=\"https:\/\/www.iso.org\/standard\/72826.html\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.iso.org\/standard\/72826.html<\/a><\/li>\n<\/ul>\n<h3>Whitepaper, Reports und \u00e4hnliche Dokumente<\/h3>\n<p>Die nachfolgende Liste enth\u00e4lt keine Normen, doch die enthaltenen Dokumente spiegeln unserer Meinung nach gut den allgemein akzeptierten Stand der Forschung wieder. Gerne erg\u00e4nzen wir diese Liste um weitere Elemente. Nutzen Sie hierzu einfach die Kommentarfunktion unten.<\/p>\n<ul>\n<li><strong>Hochrangige Expertengruppe f\u00fcr KI (Europ\u00e4ische Kommission): Ethik-Leitlinien f\u00fcr eine vertrauensw\u00fcrdige KI<\/strong><br \/>\nDiese Leitlinien geben einen Rahmen f\u00fcr die Verwirklichung einer vertrauensw\u00fcrdigen KI vor. Hierbei werden drei elementare Komponenten identifiziert: Die KI sollte rechtm\u00e4\u00dfig, ethisch und robust sein. Unter dem Aspekt der Robustheit wird hier auch explizit Safety genannt. Das Dokument enth\u00e4lt eine Bewertungsliste f\u00fcr vertrauensw\u00fcrdige KI.<br \/>\n<a href=\"https:\/\/ec.europa.eu\/digital-single-market\/en\/high-level-expert-group-artificial-intelligence\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/ec.europa.eu\/digital-single-market\/en\/high-level-expert-group-artificial-intelligence<\/a><\/li>\n<li><strong>Gutachten der Datenethikkommission<\/strong><br \/>\nDie Datenethikkommission erhielt von der Bundesregierung Deutschland die Aufgabe, ethische Ma\u00dfst\u00e4be, Leitlinien und konkrete Handlungsempfehlungen f\u00fcr den Schutz des Einzelnen, die Wahrung des gesellschaftlichen Zusammenlebens und die Sicherung und F\u00f6rderung des Wohlstandes im Informationszeitalter zu entwickeln. Dieses Dokument fasst die Ergebnisse zusammen.<br \/>\n<a href=\"http:\/\/s.fhg.de\/mcz\" target=\"_blank\" rel=\"noopener noreferrer\">http:\/\/s.fhg.de\/mcz<\/a><\/li>\n<li><strong>IEEE: Ethically Aligned Design<\/strong><br \/>\nIn diesem Dokument fasst die IEEE ihre Empfehlungen zusammen, um die Entwicklung von Standards, Zertifizierungen, Regularien und Gesetzgebungen f\u00fcr die Entwicklung von autonomen und intelligenten Systemen so zu gestalten, dass dies dem gesamten sozialen Wohlbefinden zugutekommt.<br \/>\n<a href=\"https:\/\/ethicsinaction.ieee.org\/\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/ethicsinaction.ieee.org\/<\/a><\/li>\n<li><strong>SASWG: Safety Assurance Objectives for Autonomous Systems<\/strong><br \/>\nAus einer Arbeitsgruppe des Safety-Critical System Clubs entstanden, listet dieses Dokument Ziele f\u00fcr die Absicherung von autonomen Systemen auf unterschiedlichen Abstraktionsstufen auf.<br \/>\n<a href=\"https:\/\/scsc.uk\/ga\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/scsc.uk\/ga<\/a><\/li>\n<li><strong>Safety First for Automated Driving<\/strong><br \/>\nIn diesem industrie\u00fcbergreifenden Whitepaper beleuchtet Daimler gemeinsam mit Aptiv, Audi, Baidu, BMW, Continental, Fiat Chrysler Automobiles, HERE, Infineon, Intel und Volkswagen das Thema Sicherheit f\u00fcr das automatisierte Fahren nach SAE Level 3 und Level 4. Es adressiert auch die f\u00fcr das automatisierte Fahren notwendige Nutzung von KI-Methoden (Maschinelles Lernen).<br \/>\n<a href=\"https:\/\/newsroom.intel.com\/wp-content\/uploads\/sites\/11\/2019\/07\/Intel-Safety-First-for-Automated-Driving.pdf\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/newsroom.intel.com\/wp-content\/uploads\/sites\/11\/2019\/07\/Intel-Safety-First-for-Automated-Driving.pdf<\/a><\/li>\n<li><strong>Mind the gaps: Assuring the safety of autonomous systems from an engineering, ethical, and legal perspective<\/strong><br \/>\nDiese Ver\u00f6ffentlichung haben wir mit aufgenommen, da sie eine gute \u00dcbersicht \u00fcber technische, ethische und rechtliche Safety-Fragestellungen mit ihren Schnittstellen bietet.<br \/>\n<a href=\"https:\/\/www.sciencedirect.com\/science\/article\/abs\/pii\/S0004370219301109?dgcid=rss_sd_all\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.sciencedirect.com\/science\/article\/abs\/pii\/S0004370219301109?dgcid=rss_sd_all<\/a><\/li>\n<li><strong>Considerations in Assuring Safety of Increasingly Autonomous Systems<\/strong><br \/>\nDiesen technischen Report der NASA haben wir mit aufgenommen, da er zusammenfasst, was zu beachten ist, wenn technische Systeme sicherheitskritische Aufgaben \u00fcbernehmen, die zuvor Menschen mit ihrer \u00bbIntelligenz\u00ab gel\u00f6st haben.<br \/>\n<a href=\"https:\/\/ntrs.nasa.gov\/archive\/nasa\/casi.ntrs.nasa.gov\/20180006312.pdf\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/ntrs.nasa.gov\/archive\/nasa\/casi.ntrs.nasa.gov\/20180006312.pdf<\/a><\/li>\n<\/ul>\n<h3>Laufende Initiativen in der Forschung und Normierung<\/h3>\n<p>Viele Organisationen unternehmen Aktivit\u00e4ten zur Weiterentwicklung des Standes der Wissenschaft und Technik oder zur Dokumentation dieses Standes in Normungsprojekten. Gerne erg\u00e4nzen wir diese Liste um weitere Elemente. Nutzen Sie hierzu einfach die Kommentarfunktion unten.<\/p>\n<h4>Initiativen der Normung<\/h4>\n<ul>\n<li><strong>DIN.ONE &#8211; Plattform und die deutsche Normungsroadmap KI<\/strong><br \/>\nDIN und DKE erarbeiten gemeinsam mit der Bundesregierung und Vertretern aus Wirtschaft, Wissenschaft und der Zivilgesellschaft eine Normungsroadmap zu K\u00fcnstlicher Intelligenz. Dazu geh\u00f6rt auch eine Normierung bez\u00fcglich Safety.<br \/>\n<a href=\"https:\/\/din.one\/pages\/viewpage.action?pageId=33620030\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/din.one\/pages\/viewpage.action?pageId=33620030<\/a><\/li>\n<li><strong>ISO\/IEC JTC 1\/SC42 WG1<\/strong><br \/>\nArbeitsgruppe 1 des SC42 besch\u00e4ftigt sich mit den Grundlagen der KI-Standardisierung wie Begriffen, Konzepten und Frameworks.<br \/>\n<a href=\"https:\/\/www.iso.org\/committee\/6794475.html\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.iso.org\/committee\/6794475.html<\/a><\/li>\n<li><strong>ISO\/IEC JTC 1\/SC42 WG2<\/strong><br \/>\nArbeitsgruppe 2 des SC42 ging aus einem ehemaligen eigenst\u00e4ndigen SC zum Thema \u00bbBig Data\u00ab hervor. Hier werden auch weiterhin Themen rund um Daten und Datenqualit\u00e4t bearbeitet.<br \/>\n<a href=\"https:\/\/www.iso.org\/committee\/6794475.html\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.iso.org\/committee\/6794475.html<\/a><\/li>\n<li><strong>ISO\/IEC JTC 1\/SC42 WG3<\/strong><br \/>\nArbeitsgruppe 3 des SC42 hat Trustworthiness zum Schwerpunktthema. Hier werden Normen zum Risk Management, zur Robustheit von Neuronalen Netzen, aber auch zu ethischen und sozialen Themen der KI vorbereitet.<br \/>\n<a href=\"https:\/\/www.iso.org\/committee\/6794475.html\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.iso.org\/committee\/6794475.html<\/a><\/li>\n<li><strong>ISO\/IEC JTC 1\/SC42 WG4<\/strong><br \/>\nArbeitsgruppe 4 des SC42 sammelt Use Cases rund um KI.<br \/>\n<a href=\"https:\/\/www.iso.org\/committee\/6794475.html\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.iso.org\/committee\/6794475.html<\/a><\/li>\n<li><strong>ISO\/IEC JTC 1\/SC42 WG5<br \/>\n<\/strong>Arbeitsgruppe 5 des SC42 ist die j\u00fcngste Gruppe des Gremiums und hat den Auftrag, sich mit rechnerischen Aspekten und Charakteristiken der KI zu besch\u00e4ftigen.<br \/>\n<a href=\"https:\/\/www.iso.org\/committee\/6794475.html\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.iso.org\/committee\/6794475.html<\/a><\/li>\n<li><strong>DKE AK801.0.8<\/strong><br \/>\nIn diesem Arbeitskreis des DKE, in dem sowohl das Fraunhofer IESE als auch SICK aktiv sind, wird aktuell eine Anwendungsregel zur Entwicklung von Autonomen\/Kognitiven Systemen erstellt. Der Fokus in dieser Anwendungsregel liegt auf der Durchf\u00fchrung einer Trustworthiness-Analyse und dem Aufstellen eines Trustworthiness Assurance Case. Es ist geplant, die Anwendungsregel 2020 in einer ersten Version zu publizieren.<br \/>\n<a href=\"https:\/\/www.dke.de\/de\/news\/2019\/referenzmodell-vertrauenswuerdige-ki-vde-anwendungsregel\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.dke.de\/de\/news\/2019\/referenzmodell-vertrauenswuerdige-ki-vde-anwendungsregel<\/a><\/li>\n<li><strong>DIN SPECs zu KI<\/strong><br \/>\nIn dem verk\u00fcrzten Verfahren einer SPEC unternimmt die DIN aktuell Anstrengungen, weitere Normen zur KI-Thematik zu ver\u00f6ffentlichen. Hier gibt es Projekte zum Lebenszyklus von KI-Modulen, aber auch einen Leitfaden zur konkreten Entwicklung von Deep-Learning-Bilderkennungssystemen.<br \/>\n<a href=\"https:\/\/www.din.de\/de\/forschung-und-innovation\/themen\/kuenstliche-intelligenz\/standards-fuer-ki\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.din.de\/de\/forschung-und-innovation\/themen\/kuenstliche-intelligenz\/standards-fuer-ki<\/a><\/li>\n<li><strong>IEEE P7000<\/strong><br \/>\nDas Ziel der IEEE ist die Priorisierung von ethischen Belangen und dem menschlichen Wohlbefinden bei der Entwicklung von Standards, die kritische Aspekte von autonomen und intelligenten Technologien adressieren. Zu diesem Zweck f\u00fchrt IEEE aktuell 14 Arbeitsgruppen in der P7000 Reihe.<br \/>\n<a href=\"https:\/\/standards.ieee.org\/content\/ieee-standards\/en\/industry-connections\/ec\/autonomous-systems.html\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/standards.ieee.org\/content\/ieee-standards\/en\/industry-connections\/ec\/autonomous-systems.html<\/a><\/li>\n<li><strong>OMG: Artificial Intelligence Standards<\/strong><br \/>\nGegen Ende 2019 hat die OMG ebenfalls Experten dazu aufgerufen, sich in ihrer Organisation ebenfalls der Standardisierung von KI zu widmen. Abgrenzungen gegen\u00fcber bestehenden Initiativen sind bisher ausgeblieben.<br \/>\n<a href=\"https:\/\/www.omg.org\/hot-topics\/artificial-intelligence-standards.htm\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.omg.org\/hot-topics\/artificial-intelligence-standards.htm<\/a><\/li>\n<\/ul>\n<h4>Initiativen der Forschung<\/h4>\n<ul>\n<li><strong>Assuring Autonomy International Program<\/strong><br \/>\nDiese von der University of York geleitete Initiative besch\u00e4ftigt sich explizit mit der Zusicherung und Regulierung von Robotik und autonomen Systemen. Hier wird aktuell ein frei zug\u00e4nglicher <em>Body of Knowledge<\/em> aufgebaut, der zuk\u00fcnftig die Referenzquelle zu dieser Thematik werden soll. Das Programm \u00bbAssuring Autonomy\u00ab liegt thematisch sehr nah an dem Programm \u00bbAutonome Systeme\u00ab des Fraunhofer IESE. Um Synergien zu schaffen, wird aktuell an einer strategischen Kooperation gearbeitet.<br \/>\n<a href=\"https:\/\/www.york.ac.uk\/assuring-autonomy\/\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.york.ac.uk\/assuring-autonomy\/<\/a><\/li>\n<li><strong>Partnership on AI<\/strong><br \/>\nEine aus den USA geleitete Initiative, welche die Verwendung von KI in sicherheitskritischen Anwendungen als die erste ihrer thematischen S\u00e4ulen nennt. Zu den Partnern geh\u00f6ren \u00fcber 90 Organisationen, unter anderem Amazon, Apple, Facebook, Google und Microsoft. Unternehmen aus klassischen sicherheitskritischen Dom\u00e4nen sind hier bislang nicht vertreten.<br \/>\n<a href=\"https:\/\/www.partnershiponai.org\/\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.partnershiponai.org\/<\/a><\/li>\n<\/ul>\n<div class=\"info-box\">\n<p><strong><img loading=\"lazy\" decoding=\"async\" class=\"alignleft wp-image-7634 size-thumbnail\" src=\"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2020\/04\/Patrik_Feth_Blog-150x150.jpg\" alt=\"Patrik Feth (SICK AG)\" width=\"150\" height=\"150\" srcset=\"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2020\/04\/Patrik_Feth_Blog-150x150.jpg 150w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2020\/04\/Patrik_Feth_Blog-32x32.jpg 32w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2020\/04\/Patrik_Feth_Blog-50x50.jpg 50w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2020\/04\/Patrik_Feth_Blog-64x64.jpg 64w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2020\/04\/Patrik_Feth_Blog-96x96.jpg 96w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2020\/04\/Patrik_Feth_Blog-128x128.jpg 128w, https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2020\/04\/Patrik_Feth_Blog-65x65.jpg 65w\" sizes=\"auto, (max-width: 150px) 100vw, 150px\" \/>Co-Autor<\/strong><br \/>\nDr. Patrik Feth<br \/>\nCorporate Unit Functional Safety<br \/>\nSICK AG<br \/>\n<a href=\"mailto:Patrik.Feth@sick.de\" target=\"_blank\" rel=\"noopener noreferrer\">Patrik.Feth@sick.de<\/a><\/p>\n<\/div>\n<h3>Weitere Referenzen<\/h3>\n<ol>\n<li><a href=\"https:\/\/www.daimler.com\/innovation\/case\/autonomous\/safety-first-for-automated-driving.html\">https:\/\/www.daimler.com\/innovation\/case\/autonomous\/safety-first-for-automated-driving.html<\/a><\/li>\n<li><a href=\"https:\/\/din.one\/display\/etki\/Kapitel+4%3A+Normungs-+und+Standardisierungsbedarf#Kapitel4:Normungs-undStandardisierungsbedarf-Sicherheit\">https:\/\/din.one\/display\/etki\/Kapitel+4%3A+Normungs-+und+Standardisierungsbedarf#Kapitel4:Normungs-undStandardisierungsbedarf-Sicherheit<\/a><\/li>\n<\/ol>\n<div class=\"info-box\">\n<p>Lesen Sie auch den Fraunhofer-IESE-Blog-Artikel \u00fcber die Definition autonomer Systeme:<br \/>\n<a href=\"https:\/\/www.iese.fraunhofer.de\/blog\/autonom-oder-vielleicht-doch-nur-hochautomatisiert-was-ist-eigentlich-der-unterschied\/\">Autonom oder vielleicht doch nur hochautomatisiert, was ist eigentlich der Unterschied?<\/a><\/p>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Mit dieser Frage sind wir, Dr.-Ing. Rasmus Adler als \u00bbProgramm-Manager f\u00fcr Autonome Systeme\u00ab am Fraunhofer IESE und Dr. Patrik Feth als Mitglied der Gruppe \u00bbAdvanced Safety Functions &amp; Standards\u00ab bei der SICK AG, immer wieder konfrontiert. Deswegen widmen wir uns&#8230;<\/p>\n","protected":false},"author":22,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[239,177,18],"tags":[246,415],"coauthors":[37],"class_list":["post-4780","post","type-post","status-publish","format-standard","hentry","category-autonomes-fahren","category-kuenstliche-intelligenz","category-sicherheit","tag-autonome-systeme","tag-dependable-ai-verlaessliche-ki"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.3 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Normen und Gesetze f\u00fcr autonome Systeme - Blog des Fraunhofer IESE<\/title>\n<meta name=\"description\" content=\"Das Fraunhofer IESE stellt eine Liste mit gesammelten Normen f\u00fcr autonome Systeme bereit und gibt eine \u00dcbersicht \u00fcber den aktuellen Stand der Forschung.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.iese.fraunhofer.de\/blog\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Normen und Gesetze f\u00fcr autonome Systeme - Blog des Fraunhofer IESE\" \/>\n<meta property=\"og:description\" content=\"Das Fraunhofer IESE stellt eine Liste mit gesammelten Normen f\u00fcr autonome Systeme bereit und gibt eine \u00dcbersicht \u00fcber den aktuellen Stand der Forschung.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.iese.fraunhofer.de\/blog\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\/\" \/>\n<meta property=\"og:site_name\" content=\"Fraunhofer IESE\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/FraunhoferIESE\/\" \/>\n<meta property=\"article:published_time\" content=\"2020-02-04T07:18:11+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2025-06-02T07:48:56+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2020\/04\/Patrik_Feth_Blog.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"320\" \/>\n\t<meta property=\"og:image:height\" content=\"250\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Dr. Rasmus Adler\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@FraunhoferIESE\" \/>\n<meta name=\"twitter:site\" content=\"@FraunhoferIESE\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dr. Rasmus Adler\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"7\u00a0Minuten\" \/>\n\t<meta name=\"twitter:label3\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data3\" content=\"Dr. Rasmus Adler\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\\\/\"},\"author\":{\"name\":\"Dr. Rasmus Adler\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#\\\/schema\\\/person\\\/c04a120d16ea7bef582db16c1c8a0e96\"},\"headline\":\"Welche Gesetze, Normen und Forschungsinitiativen gibt es, um k\u00fcnstliche Intelligenz und autonome Systeme sicher zu machen?\",\"datePublished\":\"2020-02-04T07:18:11+00:00\",\"dateModified\":\"2025-06-02T07:48:56+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\\\/\"},\"wordCount\":1825,\"publisher\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2020\\\/04\\\/Patrik_Feth_Blog-150x150.jpg\",\"keywords\":[\"Autonome Systeme\",\"Dependable AI \\\/ Verl\u00e4ssliche KI\"],\"articleSection\":[\"Autonomes Fahren\",\"K\u00fcnstliche Intelligenz\",\"Sicherheit\"],\"inLanguage\":\"de\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\\\/\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\\\/\",\"name\":\"Normen und Gesetze f\u00fcr autonome Systeme - Blog des Fraunhofer IESE\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2020\\\/04\\\/Patrik_Feth_Blog-150x150.jpg\",\"datePublished\":\"2020-02-04T07:18:11+00:00\",\"dateModified\":\"2025-06-02T07:48:56+00:00\",\"description\":\"Das Fraunhofer IESE stellt eine Liste mit gesammelten Normen f\u00fcr autonome Systeme bereit und gibt eine \u00dcbersicht \u00fcber den aktuellen Stand der Forschung.\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\\\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\\\/#primaryimage\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2020\\\/04\\\/Patrik_Feth_Blog.jpg\",\"contentUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2020\\\/04\\\/Patrik_Feth_Blog.jpg\",\"width\":320,\"height\":250,\"caption\":\"Patrik Feth (SICK AG)\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Startseite\",\"item\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Welche Gesetze, Normen und Forschungsinitiativen gibt es, um k\u00fcnstliche Intelligenz und autonome Systeme sicher zu machen?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#website\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/\",\"name\":\"Fraunhofer IESE\",\"description\":\"Blog des Fraunhofer-Institut f\u00fcr Experimentelles Software Engineering\",\"publisher\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#organization\",\"name\":\"Fraunhofer IESE\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2016\\\/08\\\/fhg_iese_logo.png\",\"contentUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2016\\\/08\\\/fhg_iese_logo.png\",\"width\":183,\"height\":50,\"caption\":\"Fraunhofer IESE\"},\"image\":{\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/www.facebook.com\\\/FraunhoferIESE\\\/\",\"https:\\\/\\\/x.com\\\/FraunhoferIESE\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/fraunhoferiese\\\/\",\"https:\\\/\\\/www.youtube.com\\\/c\\\/FraunhoferIESE\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/#\\\/schema\\\/person\\\/c04a120d16ea7bef582db16c1c8a0e96\",\"name\":\"Dr. Rasmus Adler\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2019\\\/08\\\/5D3_9315_blog-96x96.jpg299946be4e1d400b1373dc4921f14c73\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2019\\\/08\\\/5D3_9315_blog-96x96.jpg\",\"contentUrl\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/wp-content\\\/uploads\\\/2019\\\/08\\\/5D3_9315_blog-96x96.jpg\",\"caption\":\"Dr. Rasmus Adler\"},\"description\":\"Rasmus Adler hat angewandte Informatik studiert und ist seit 2006 am Fraunhofer IESE besch\u00e4ftigt. In seiner Promotion entwickelte er Fail-Operational L\u00f6sungen f\u00fcr aktive Sicherheitssysteme wie dem ESP. Anschlie\u00dfend widmete er sich als Projektleiter und Safety Experte dem modell-basierten Safety Engineering autonomer Systeme. Er koordinierte die Entwicklung von L\u00f6sungen, um zur Laufzeit das Risiko von geplantem\\\/m\u00f6glichen autonomen Systemverhalten bez\u00fcglich der aktuellen Situation zu messen und risikominierende Ma\u00dfnahmen anzusto\u00dfen. In seiner aktuellen Position als Program Manager f\u00fcr autonome Systeme widmet er sich insbesondere dem Risikomanagement vernetzter Cyber-Physischer Systeme. Um den Nutzen der einzelnen Systeme aber auch den Gesamtnutzen von Systemverb\u00fcnden zu maximieren, setzt er auf ein kooperatives und zum Teil auf k\u00fcnstlicher Intelligenz basiertem Risikomanagement zur Laufzeit. Da aktuelle Sicherheitsnormen dieses innovative Risikomanagement nicht unterst\u00fctzen, engagiert er sich in Normungsgremien und beteiligt sich an der Entwicklung normativer Anforderungen f\u00fcr autonome, vernetzte Cyber-Physische Systeme.\",\"url\":\"https:\\\/\\\/www.iese.fraunhofer.de\\\/blog\\\/author\\\/rasmus-adler\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Normen und Gesetze f\u00fcr autonome Systeme - Blog des Fraunhofer IESE","description":"Das Fraunhofer IESE stellt eine Liste mit gesammelten Normen f\u00fcr autonome Systeme bereit und gibt eine \u00dcbersicht \u00fcber den aktuellen Stand der Forschung.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.iese.fraunhofer.de\/blog\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\/","og_locale":"de_DE","og_type":"article","og_title":"Normen und Gesetze f\u00fcr autonome Systeme - Blog des Fraunhofer IESE","og_description":"Das Fraunhofer IESE stellt eine Liste mit gesammelten Normen f\u00fcr autonome Systeme bereit und gibt eine \u00dcbersicht \u00fcber den aktuellen Stand der Forschung.","og_url":"https:\/\/www.iese.fraunhofer.de\/blog\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\/","og_site_name":"Fraunhofer IESE","article_publisher":"https:\/\/www.facebook.com\/FraunhoferIESE\/","article_published_time":"2020-02-04T07:18:11+00:00","article_modified_time":"2025-06-02T07:48:56+00:00","og_image":[{"width":320,"height":250,"url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2020\/04\/Patrik_Feth_Blog.jpg","type":"image\/jpeg"}],"author":"Dr. Rasmus Adler","twitter_card":"summary_large_image","twitter_creator":"@FraunhoferIESE","twitter_site":"@FraunhoferIESE","twitter_misc":{"Verfasst von":"Dr. Rasmus Adler","Gesch\u00e4tzte Lesezeit":"7\u00a0Minuten","Written by":"Dr. Rasmus Adler"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\/#article","isPartOf":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\/"},"author":{"name":"Dr. Rasmus Adler","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#\/schema\/person\/c04a120d16ea7bef582db16c1c8a0e96"},"headline":"Welche Gesetze, Normen und Forschungsinitiativen gibt es, um k\u00fcnstliche Intelligenz und autonome Systeme sicher zu machen?","datePublished":"2020-02-04T07:18:11+00:00","dateModified":"2025-06-02T07:48:56+00:00","mainEntityOfPage":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\/"},"wordCount":1825,"publisher":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#organization"},"image":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\/#primaryimage"},"thumbnailUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2020\/04\/Patrik_Feth_Blog-150x150.jpg","keywords":["Autonome Systeme","Dependable AI \/ Verl\u00e4ssliche KI"],"articleSection":["Autonomes Fahren","K\u00fcnstliche Intelligenz","Sicherheit"],"inLanguage":"de"},{"@type":"WebPage","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\/","url":"https:\/\/www.iese.fraunhofer.de\/blog\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\/","name":"Normen und Gesetze f\u00fcr autonome Systeme - Blog des Fraunhofer IESE","isPartOf":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\/#primaryimage"},"image":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\/#primaryimage"},"thumbnailUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2020\/04\/Patrik_Feth_Blog-150x150.jpg","datePublished":"2020-02-04T07:18:11+00:00","dateModified":"2025-06-02T07:48:56+00:00","description":"Das Fraunhofer IESE stellt eine Liste mit gesammelten Normen f\u00fcr autonome Systeme bereit und gibt eine \u00dcbersicht \u00fcber den aktuellen Stand der Forschung.","breadcrumb":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.iese.fraunhofer.de\/blog\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\/"]}]},{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\/#primaryimage","url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2020\/04\/Patrik_Feth_Blog.jpg","contentUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2020\/04\/Patrik_Feth_Blog.jpg","width":320,"height":250,"caption":"Patrik Feth (SICK AG)"},{"@type":"BreadcrumbList","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/welche-gesetze-normen-und-forschungsinitiativen-gibt-es-um-kuenstliche-intelligenz-und-autonome-systeme-sicher-zu-machen\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Startseite","item":"https:\/\/www.iese.fraunhofer.de\/blog\/"},{"@type":"ListItem","position":2,"name":"Welche Gesetze, Normen und Forschungsinitiativen gibt es, um k\u00fcnstliche Intelligenz und autonome Systeme sicher zu machen?"}]},{"@type":"WebSite","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#website","url":"https:\/\/www.iese.fraunhofer.de\/blog\/","name":"Fraunhofer IESE","description":"Blog des Fraunhofer-Institut f\u00fcr Experimentelles Software Engineering","publisher":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.iese.fraunhofer.de\/blog\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de"},{"@type":"Organization","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#organization","name":"Fraunhofer IESE","url":"https:\/\/www.iese.fraunhofer.de\/blog\/","logo":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#\/schema\/logo\/image\/","url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2016\/08\/fhg_iese_logo.png","contentUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2016\/08\/fhg_iese_logo.png","width":183,"height":50,"caption":"Fraunhofer IESE"},"image":{"@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/FraunhoferIESE\/","https:\/\/x.com\/FraunhoferIESE","https:\/\/www.linkedin.com\/company\/fraunhoferiese\/","https:\/\/www.youtube.com\/c\/FraunhoferIESE"]},{"@type":"Person","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/#\/schema\/person\/c04a120d16ea7bef582db16c1c8a0e96","name":"Dr. Rasmus Adler","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2019\/08\/5D3_9315_blog-96x96.jpg299946be4e1d400b1373dc4921f14c73","url":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2019\/08\/5D3_9315_blog-96x96.jpg","contentUrl":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-content\/uploads\/2019\/08\/5D3_9315_blog-96x96.jpg","caption":"Dr. Rasmus Adler"},"description":"Rasmus Adler hat angewandte Informatik studiert und ist seit 2006 am Fraunhofer IESE besch\u00e4ftigt. In seiner Promotion entwickelte er Fail-Operational L\u00f6sungen f\u00fcr aktive Sicherheitssysteme wie dem ESP. Anschlie\u00dfend widmete er sich als Projektleiter und Safety Experte dem modell-basierten Safety Engineering autonomer Systeme. Er koordinierte die Entwicklung von L\u00f6sungen, um zur Laufzeit das Risiko von geplantem\/m\u00f6glichen autonomen Systemverhalten bez\u00fcglich der aktuellen Situation zu messen und risikominierende Ma\u00dfnahmen anzusto\u00dfen. In seiner aktuellen Position als Program Manager f\u00fcr autonome Systeme widmet er sich insbesondere dem Risikomanagement vernetzter Cyber-Physischer Systeme. Um den Nutzen der einzelnen Systeme aber auch den Gesamtnutzen von Systemverb\u00fcnden zu maximieren, setzt er auf ein kooperatives und zum Teil auf k\u00fcnstlicher Intelligenz basiertem Risikomanagement zur Laufzeit. Da aktuelle Sicherheitsnormen dieses innovative Risikomanagement nicht unterst\u00fctzen, engagiert er sich in Normungsgremien und beteiligt sich an der Entwicklung normativer Anforderungen f\u00fcr autonome, vernetzte Cyber-Physische Systeme.","url":"https:\/\/www.iese.fraunhofer.de\/blog\/author\/rasmus-adler\/"}]}},"jetpack_featured_media_url":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/posts\/4780","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/users\/22"}],"replies":[{"embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/comments?post=4780"}],"version-history":[{"count":12,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/posts\/4780\/revisions"}],"predecessor-version":[{"id":7637,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/posts\/4780\/revisions\/7637"}],"wp:attachment":[{"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/media?parent=4780"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/categories?post=4780"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/tags?post=4780"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/www.iese.fraunhofer.de\/blog\/wp-json\/wp\/v2\/coauthors?post=4780"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}