
Das Seminar zum Certified Data Scientist Specialized in Assuring Safety vermittelt Expertenwissen zur Absicherung Künstlicher Intelligenz (KI) in sicherheitskritischen Bereichen.
Wir bieten einen Überblick über den Stand der Technik, um die KI Sicherheit gewährleisten zu können. An der Schnittstelle zwischen funktionaler Sicherheit (Safety) und Künstlicher Intelligenz befassen wir uns mit relevanten Normen und Normungsinitiativen. Wir schaffen das Bewusstsein für die Herausforderungen beim Einsatz von KI in sicherheitskritischen Lösungen, indem typische Problemstellungen aus diesem Spannungsfeld aufgezeigt werden.
Teilnehmer*innen erfahren im Seminar mögliche Strategien zur Absicherung Künstlicher Intelligenz. Gemeinsam erproben wir eine Auswahl von Ansätzen, um konkrete Herausforderungen zu adressieren und maßgeschneiderte Safety-Konzepte abzuleiten.
Die online durchgeführte Schulung beinhaltet einen hohen Anteil an Übungen und Interaktion, um die Inhalte praxisnah zu vermitteln und den Transfer in den beruflichen Alltag zu ermöglichen.
Grundkenntnisse in Statistik und Datenanalyse werden vorausgesetzt. Erste Erfahrungen im Umgang mit Maschinellen Lernverfahren sind von Vorteil. Vorkenntnisse aus dem Bereich Safety Engineering werden nicht vorausgesetzt.
Absicherung Künstlicher Intelligenz auf einen Blick:
Das Seminar Absicherung Künstlicher Intelligenz findet in deutscher Sprache statt. Begleitunterlagen liegen in englischer Sprache vor.
Tag 1: Motivation und Grundlagen
Tag 2: Standards und Maßnahmen für KI Sicherheit
Tag 3: Maßnahmen für sichere KI (cont.)
Tag 4: Sicherheitsargumentation
Tag 5: Zertifizierte Prüfung am Vormittag
Dr.-Ing. Rasmus Adler hat angewandte Informatik studiert und ist seit 2006 am Fraunhofer IESE beschäftigt. In seiner Promotion entwickelte er Fail-Operational Lösungen für aktive Sicherheitssysteme wie dem ESP. Anschließend widmete er sich als Projektleiter und Safety Experte dem modell-basierten Safety Engineering autonomer Systeme. Er koordinierte die Entwicklung von Lösungen, um zur Laufzeit das Risiko von geplantem/möglichen autonomen Systemverhalten bezüglich der aktuellen Situation zu messen und risikominierende Maßnahmen anzustoßen. In seiner aktuellen Position als Programm Manager für autonome Systeme widmet er sich insbesondere dem Risikomanagement vernetzter Cyber-Physischer Systeme. Um den Nutzen der einzelnen Systeme aber auch den Gesamtnutzen von Systemverbünden zu maximieren, setzt er auf ein kooperatives und zum Teil auf künstlicher Intelligenz basiertem Risikomanagement zur Laufzeit. Da aktuelle Sicherheitsnormen dieses innovative Risikomanagement nicht unterstützen, engagiert er sich in Normungsgremien und beteiligt sich an der Entwicklung normativer Anforderungen für autonome, vernetzte Cyber-Physische Systeme.
Dr. Michael Kläs ist seit Abschluss seines Informatikstudiums in der angewandten Forschung tätig und berät Unternehmen in den Bereichen Softwarequalität und Datenanalyse am Fraunhofer IESE. Im Laufe der letzten Dekade verantwortete er in zahlreichen Industrie- und Forschungsprojekten insbesondere den Aufbau von KPI-Systemen, die Evaluation neuer Technologien und die Entwicklung prädiktiver Analysen. In seiner Dissertation beschäftigte er sich mit der Vorhersage von Softwarefehlern unter Einbeziehung von Expertenwissen. Aktuell liegt sein Schwerpunkt im Bereich der Potenzialanalyse für datengetriebene Innovation und der Datenqualitäts- und Unsicherheitsanalyse bei Big-Data- und KI-Systemen. Als Autor zahlreicher Fachpublikationen engagiert er sich zudem als Hochschuldozent und als Experte bei der Normierung (DIN/VDE).
Janek Groß hat in Eichstätt Mathematik und Psychologie studiert. Dabei hat er jeweils den Bachelor of Science sowie das erste Staatsexamen für Gymnasiallehramt erworben. Sein Masterstudium Robotics Cognition Intelligence absolvierte er an der Fakultät Informatik der TU München. Während des Studiums eignete er sich weitreichende Kenntnisse in der mathematischen Statistik und den empirischen Wissenschaften an. Außerdem konnte er einschlägige Erfahrungen in der Entwicklung von größeren neuronalen Netzwerken und im Umgang mit Großrechnern gewinnen. Bei der Grundlagenforschung gilt sein Interesse besonders den Bereichen Zeitreihenanalyse und Informationstheorie.
Seit Anfang 2021 ist er in der Abteilung »Data Science« des Fraunhofer IESE tätig und arbeitet eng mit der Abteilung »Safety Engineering« zusammen. Zu seinen Aufgaben gehört die empirische Validierung und formale Absicherung von datengetriebenen KI-Modellen, die in autonomen Fahrzeugen und Robotern zur Anwendung kommen.
Dr. Adam Trendowicz ist Senior Science in der Abteilung Data Engineering am Fraunhofer-Institut für Experimentelles Software Engineering IESE in Kaiserslautern. Nach seiner Promotion zum Thema Softwareprojektaufwand und Risikoabschätzungsmodelle an der TU Kaiserslautern ist er im Bereich Data Science und datengetriebene Geschäftsinnovation tätig.
Dr. Trendowicz verfügt über mehr als 20 Jahre Erfahrung in der Analyse von Softwareprojekten und -produkten in unterschiedlichen Branchen. Er hat diverse Aktivitäten in den Bereichen Messen, Vorhersage und Verbesserung von Software in Softwareunternehmen unterschiedlicher Größe und in verschiedenen Domänen geleitet (u.a. in Deutschland, Japan und Indien). In diesem Kontext hat er Vorhersagemodelle für Softwarekosten und -qualität entwickelt und empirisch validiert.
Derzeit liegt der Tätigkeitsschwerpunkt von Dr. Trendowicz auf Datenqualität und -vorbereitung im Kontext von maschinellem Lernen sowie auf dem Lean Deployment von datengetriebenen Innovationen auf Basis von Lösungen aus den Bereichen maschinelles Lernen und Künstliche Intelligenz.
Dr. Trendowicz ist Mitbegründer des von der Fraunhofer-Allianz Big Data und Künstliche Intelligenz angebotenen Weiterbildungs- und Zertifizierungsprogramms „Data Scientist“. Er hat ferner mehrere Tutorials zu den Themen Business-IT-Abgleich, Softwarequalitätsmessung und Kostenschätzung gehalten. Schließlich ist er Co-Autor mehrerer Bücher und zahlreicher Veröffentlichungen in internationalen Fachzeitschriften und auf Konferenzen.
Lisa Jöckel beschäftigt sich seit 2018 mit der Absicherung von KI-basierten Systemen als Senior Data Scientist am Fraunhofer IESE. Ein Fokus ist dabei die Bewertung von Unsicherheiten in den Entscheidungen datengetriebener Modelle. Des Weiteren beschäftigt sie sich mit dem Testen solcher Modelle und der Qualität der Testdaten. Sie studierte Informatik an der Technischen Universität Kaiserslautern mit Schwerpunkt in Datenvisualisierung und Computergrafik.
Pascal Gerber hat Informatik an der TU Kaiserslautern studiert. In seinen Abschlussarbeiten sowie während seiner Tätigkeit als studentische Hilfskraft am Fraunhofer IESE befasste er sich unter anderem mit Reinforcement Learning und Qualitätseinflussmodellen zur Bewertung von Unsicherheiten in den Entscheidungen datengetriebener Modelle.
Nach seinem Studium begann er 2021 in der Abteilung »Safety Engineering« zu arbeiten und hat dabei grundlegende Kompetenzen im Safety Engineering erworben. Seit 2023 ist er in der Abteilung »Data Science« tätig und beschäftigt sich gegenwärtig mit Qualitätseinflussmodellen.
Bitte füllen Sie das untenstehende Anmeldeformular aus. Die maximale Teilnehmerzahl ist 15. Die Anmeldungen werden in der Reihenfolge ihres Eintreffens berücksichtigt.
Ist das Seminar zu Ihrem favorisierten Termin bereits ausgebucht, haben Sie die Möglichkeit, sich auf die Warteliste setzen zu lassen. Die Warteliste ist für Sie unverbindlich und kostenlos. Sobald ein Platz frei wird, kümmern wir uns schnellstmöglich um eine Nachbesetzung und würden uns dann mit Ihnen in Verbindung setzen.
Allgemeine Geschäftsbedingungen für die Teilnahme an Seminaren und Veranstaltungen des Fraunhofer IESE:
Selbstverständlich behandeln wir Ihre Daten vertraulich und geben sie nicht an Dritte weiter. Sie können der Einwilligung in die Verarbeitung Ihrer Daten jederzeit widersprechen.
Die Teilnahmegebühr ist steuerfrei gem. § 4 Nr. 22a UStG.
Sie umfasst Begleitunterlagen, die Prüfungsgebühr und Verpflegung bei Präsenzveranstaltungen.
Von unserer Abteilung Rechnungswesen erhalten Sie im Anschluss an die Schulung eine offizielle Rechnung an die uns genannte Adresse.
Das Zertifikat zum Seminar Absicherung von KI wird durch die Fraunhofer-Personenzertifizierungsstelle ausgestellt.
Als Zugangsvoraussetzungen gilt ein Studium oder äquivalente Qualifikationen durch einen Einzelnachweis.