
Der Einsatz von Künstlicher Intelligenz (KI) in sicherheitskritischen Systemen bringt neue Herausforderungen mit sich, da herkömmliche Entwicklungs- und Prüfmethoden oft nicht ausreichen. Die Komplexität von Machine Learning (ML) und insbesondere Deep Learning (DL) Modellen, ihr oft nicht-deterministisches Verhalten und die Abhängigkeit von Datenqualität sowie den verwendeten Lernalgorithmen erfordern ein spezielles Verständnis, um Sicherheit und Zuverlässigkeit zu gewährleisten. Diese Schulung vermittelt Ihnen das notwendige Wissen, um die Herausforderungen zu verstehen und zeigt aktuelle Strategien für den sicheren Einsatz von KI auf.
Im sicherheitskritischen Umfeld bestehen zwar große wirtschaftliche Potenziale durch die Möglichkeiten von KI, insbesondere ML und DL, diese werden jedoch noch nicht voll ausgeschöpft. Trotz zahlreicher Ansätze zur Erhöhung der Verlässlichkeit von Methoden der KI, insbesondere ML-Komponenten stellt die schnelle Entwicklung der Forschung eine Herausforderung dar. Hersteller sollen den Stand der Technik einhalten, doch traditionelle Sicherheitsnormen wie IEC 61508 berücksichtigen KI kaum und basieren auf Annahmen ohne KI, wodurch KI-Komponenten nur indirekt abgesichert werden.
Es befassen sich zwar viele Normen mit KI, diese reichen wiederum für Safety jedoch meist nicht aus und verweisen auf traditionelle Sicherheitsnormen, wie z. B. ISO/IEC TR 24028. Ausnahmen mit klarem Safety-Fokus sind z. B. ISO/IEC TR 5469:2024 und ISO/PAS 8800. Diese geben zwar Hinweise zu risikoreduzierenden Maßnahmen, sind aber aufgrund ihres hohen Abstraktionsniveaus nicht ausreichend, um passgenaue Maßnahmen auszuwählen. Mehr dazu unter https://www.iese.fraunhofer.de/blog/ki-normen-und-standardisierung/
Der Einsatz von ML verändert das Entwicklungsparadigma grundlegend: Statt klassischer Spezifikationen dienen Beispieldaten als Grundlage, aus denen ein Lernalgorithmus ein Modell erzeugt. Dieses ist oft nicht deterministisch und seine Qualität hängt stark von Daten, Algorithmen und Entwicklerexpertise ab. Da viele etablierte Verifikationsmethoden wegen fehlender klarer Spezifikationen und mangelnder Interpretierbarkeit nur eingeschränkt anwendbar sind, entstehen besondere Herausforderungen.
In diesem Seminar erhalten Sie einen einführenden Überblick über den Stand der Technik im Bereich Safety und Künstliche Intelligenz, inklusive relevanter Normen und Normungsinitiativen. Wir diskutieren die Herausforderungen, die sich in diesem Spannungsfeld ergeben, um Ihr Bewusstsein für die Probleme beim Einsatz von KI-Ansätzen in sicherheitskritischen Lösungen zu schärfen. Zudem lernen Sie mögliche Strategien für sichere KI-Lösungen und eine exemplarische Auswahl von Ansätzen kennen, die Ihnen dabei helfen, konkrete Herausforderungen zu adressieren und maßgeschneiderte Safety-Konzepte abzuleiten.
Sie kommen bspw. aus einer sicherheitskritischen Domäne und interessieren sich für die Anwendung von KI Komponenten oder Verfahren. Insbesondere richtet sich das Seminar dabei an Prüforganisationen, Fach- und Führungskräfte, Projektverantwortliche, Qualitätsmanager, Safety Ingenieure und Data Scientists.
Grundkenntnisse oder erste Erfahrungen im Umgang mit Maschinellen Lernverfahren sind von Vorteil. Detaillierte Vorkenntnisse aus dem Bereich Safety Engineering werden nicht vorausgesetzt
Das Seminar wurde von den Expertinnen und Spezialisten des Fraunhofer IESE konzipiert und bereits mehrfach erfolgreich durchgeführt. Die Seminar-Teilnehmenden werden persönlich von dem Fraunhofer IESE-Team betreut und erhalten unmittelbaren Zugriff auf die Expertise aus der Forschung und Praxis.
Dr. Michael Kläs ist seit Abschluss seines Informatikstudiums in der angewandten Forschung tätig und berät Unternehmen in den Bereichen Softwarequalität und Datenanalyse am Fraunhofer IESE. Im Laufe der letzten Dekade verantwortete er in zahlreichen Industrie- und Forschungsprojekten insbesondere den Aufbau von KPI-Systemen, die Evaluation neuer Technologien und die Entwicklung prädiktiver Analysen. In seiner Dissertation beschäftigte er sich mit der Vorhersage von Softwarefehlern unter Einbeziehung von Expertenwissen. Aktuell liegt sein Schwerpunkt im Bereich der Potenzialanalyse für datengetriebene Innovation und der Datenqualitäts- und Unsicherheitsanalyse bei Big-Data- und KI-Systemen. Als Autor zahlreicher Fachpublikationen engagiert er sich zudem als Hochschuldozent und als Experte bei der Normierung (DIN/VDE).
Dr.-Ing. Rasmus Adler hat angewandte Informatik studiert und ist seit 2006 am Fraunhofer IESE beschäftigt. In seiner Promotion entwickelte er Fail-Operational Lösungen für aktive Sicherheitssysteme wie dem ESP. Anschließend widmete er sich als Projektleiter und Safety Experte dem modell-basierten Safety Engineering autonomer Systeme. Er koordinierte die Entwicklung von Lösungen, um zur Laufzeit das Risiko von geplantem/möglichen autonomen Systemverhalten bezüglich der aktuellen Situation zu messen und risikominierende Maßnahmen anzustoßen. In seiner aktuellen Position als Programm Manager für autonome Systeme widmet er sich insbesondere dem Risikomanagement vernetzter Cyber-Physischer Systeme. Um den Nutzen der einzelnen Systeme aber auch den Gesamtnutzen von Systemverbünden zu maximieren, setzt er auf ein kooperatives und zum Teil auf künstlicher Intelligenz basiertem Risikomanagement zur Laufzeit. Da aktuelle Sicherheitsnormen dieses innovative Risikomanagement nicht unterstützen, engagiert er sich in Normungsgremien und beteiligt sich an der Entwicklung normativer Anforderungen für autonome, vernetzte Cyber-Physische Systeme.
Anna Maria Vollmer hat einen Masterabschluss in Informatik von der Technischen Universität Kaiserslautern und ist seit 2017 am Fraunhofer IESE in der Abteilung Data Science tätig. In ihren aktuellen Rollen als Senior Data Engineer und Manager for Business & Transfer vereint sie technische Expertise mit strategischem Denken. Durch die Verantwortung einer Vielzahl von Projekten hat sie ein tiefes Verständnis für komplexe Problemstellungen und effektiven Lösungsstrategien entwickelt. Darüber hinaus bringt sie Erfahrung in der Qualitätsbewertung mit und arbeitet an datengetriebenen Innovationen für Industriekunden.
Sie möchten das 1-Tages-Seminar (Präsenz oder Online) zu flexiblen Terminen buchen oder auf die Inhouse-Variante zurückgreifen?
Senden Sie uns Ihre Anfrage und erhalten Sie Terminvorschläge für Ihre Teilnahme an der Schulung.