Seminar: Absicherung Künstlicher Intelligenz

Ki, Sicherheit, Absicherung, Fraunhofer IESE
© iStock.com/Henrik5000
KI Sicherheit in sicherheitskritischen Bereichen.

Mit Safety Engineering zur Safe AI

Das Seminar zum Certified Data Scientist Specialized in Assuring Safety vermittelt Expertenwissen zur Absicherung Künstlicher Intelligenz (KI) in sicherheitskritischen Bereichen.

Wir bieten einen Überblick über den Stand der Technik, um die KI Sicherheit gewährleisten zu können. An der Schnittstelle zwischen funktionaler Sicherheit (Safety) und Künstlicher Intelligenz befassen wir uns mit relevanten Normen und Normungsinitiativen. Wir schaffen das Bewusstsein für die Herausforderungen beim Einsatz von KI in sicherheitskritischen Lösungen, indem typische Problemstellungen aus diesem Spannungsfeld aufgezeigt werden.

Teilnehmer*innen erfahren im Seminar mögliche Strategien zur Absicherung Künstlicher Intelligenz. Gemeinsam erproben wir eine Auswahl von Ansätzen, um konkrete Herausforderungen zu adressieren und maßgeschneiderte Safety-Konzepte abzuleiten.

Die online durchgeführte Schulung beinhaltet einen hohen Anteil an Übungen und Interaktion, um die Inhalte praxisnah zu vermitteln und den Transfer in den beruflichen Alltag zu ermöglichen.

 

Termin buchen

Informationen und Details zum Seminar

Zielgruppe

  • Prüforganisationen, Fach- und Führungskräfte, Projektverantwortliche, Qualitätsmanagement
  • Experten wie Safety Ingenieure und Data Scientists

Grundkenntnisse in Statistik und Datenanalyse werden vorausgesetzt. Erste Erfahrungen im Umgang mit Maschinellen Lernverfahren sind von Vorteil. Vorkenntnisse aus dem Bereich Safety Engineering werden nicht vorausgesetzt.

 

Ihr Nutzen

Absicherung Künstlicher Intelligenz auf einen Blick:

  • Sie wissen über das Gefahren- und Innovationspotential von KI-Anwendungen im sicherheitskritischen Umfeld
  • Sie besitzen einen Überblick über die Grundlagen des Safety Engineerings
  • Sie kennen maßgebliche KI-Grundlagen aus dem Blickwickel Safety
  • Sie können Nutzen und Verbindlichkeit von Safety und KI-Standards einordnen
  • Sie kennen eine Auswahl möglicher Strategien und Maßnahmen für sichere KI
  • Sie können Assurance Cases, als mögliche Argumentationsgrundlage für KI-bezogene Sicherheitsnachweise, exemplarisch anwenden

Das Seminar Absicherung Künstlicher Intelligenz findet in deutscher Sprache statt. Begleitunterlagen liegen in englischer Sprache vor.

 

Tag 1: Motivation und Grundlagen

  • Motivation für KI in sicherheitskritischen Systemen
  • Grundlagen des Safety-Engineerings
  • KI-Grundlagen mit Schwerpunkt Safety

Tag 2: Standards und Maßnahmen für KI Sicherheit

  • Relevante Standards und Normen
  • Safety-Maßnahmen für KI
  • Maßnahmen bei der Spezifikation
  • Maßnahmen bei der Konstruktion

Tag 3: Maßnahmen für sichere KI (cont.)

  • Maßnahmen beim Testen
  • Maßnahmen bei der Analyse
  • Maßnahmen im Daten-Lebenszyklus

Tag 4: Sicherheitsargumentation

  • Grundlagen zu Assurance Cases
  • Assurance Cases für KI-Komponenten
  • Ganzheitliche Betrachtung der Kerninhalte, Möglichkeit zu abschließenden Fragen

Tag 5: Zertifizierte Prüfung am Vormittag

Dr. Rasmus Adler, Fraunhofer IESE
© Fraunhofer IESE

Dr.-Ing. Rasmus Adler hat angewandte Informatik studiert und ist seit 2006 am Fraunhofer IESE beschäftigt. In seiner Promotion entwickelte er Fail-Operational Lösungen für aktive Sicherheitssysteme wie dem ESP. Anschließend widmete er sich als Projektleiter und Safety Experte dem modell-basierten Safety Engineering autonomer Systeme. Er koordinierte die Entwicklung von Lösungen, um zur Laufzeit das Risiko von geplantem/möglichen autonomen Systemverhalten bezüglich der aktuellen Situation zu messen und risikominierende Maßnahmen anzustoßen. In seiner aktuellen Position als Programm Manager für autonome Systeme widmet er sich insbesondere dem Risikomanagement vernetzter Cyber-Physischer Systeme. Um den Nutzen der einzelnen Systeme aber auch den Gesamtnutzen von Systemverbünden zu maximieren, setzt er auf ein kooperatives und zum Teil auf künstlicher Intelligenz basiertem Risikomanagement zur Laufzeit. Da aktuelle Sicherheitsnormen dieses innovative Risikomanagement nicht unterstützen, engagiert er sich in Normungsgremien und beteiligt sich an der Entwicklung normativer Anforderungen für autonome, vernetzte Cyber-Physische Systeme. 

Dr. Michael Klaes, Fraunhofer IESE
© Fraunhofer IESE

Dr. Michael Kläs ist seit Abschluss seines Informatikstudiums in der angewandten Forschung tätig und berät Unternehmen in den Bereichen Softwarequalität und Datenanalyse am Fraunhofer IESE. Im Laufe der letzten Dekade verantwortete er in zahlreichen Industrie- und Forschungsprojekten insbesondere den Aufbau von KPI-Systemen, die Evaluation neuer Technologien und die Entwicklung prädiktiver Analysen. In seiner Dissertation beschäftigte er sich mit der Vorhersage von Softwarefehlern unter Einbeziehung von Expertenwissen. Aktuell liegt sein Schwerpunkt im Bereich der Potenzialanalyse für datengetriebene Innovation und der Datenqualitäts- und Unsicherheitsanalyse bei Big-Data- und KI-Systemen. Als Autor zahlreicher Fachpublikationen engagiert er sich zudem als Hochschuldozent und als Experte bei der Normierung (DIN/VDE).

Janek Groß, Fraunhofer IESE
© Fraunhofer IESE

Janek Groß hat in Eichstätt Mathematik und Psychologie studiert. Dabei hat er jeweils den Bachelor of Science sowie das erste Staatsexamen für Gymnasiallehramt erworben. Sein Masterstudium Robotics Cognition Intelligence absolvierte er an der Fakultät Informatik der TU München. Während des Studiums eignete er sich weitreichende Kenntnisse in der mathematischen Statistik und den empirischen Wissenschaften an. Außerdem konnte er einschlägige Erfahrungen in der Entwicklung von größeren neuronalen Netzwerken und im Umgang mit Großrechnern gewinnen. Bei der Grundlagenforschung gilt sein Interesse besonders den Bereichen Zeitreihenanalyse und Informationstheorie.

Seit Anfang 2021 ist er in der Abteilung »Data Science« des Fraunhofer IESE tätig und arbeitet eng mit der Abteilung »Safety Engineering« zusammen. Zu seinen Aufgaben gehört die empirische Validierung und formale Absicherung von datengetriebenen KI-Modellen, die in autonomen Fahrzeugen und Robotern zur Anwendung kommen. 

Dr. Adam Trendowicz, Fraunhofer IESE
© Fraunhofer IESE

Dr. Adam Trendowicz ist Senior Science in der Abteilung Data Engineering am Fraunhofer-Institut für Experimentelles Software Engineering IESE in Kaiserslautern. Nach seiner Promotion zum Thema Softwareprojektaufwand und Risikoabschätzungsmodelle an der TU Kaiserslautern ist er im Bereich Data Science und datengetriebene Geschäftsinnovation tätig.

Dr. Trendowicz verfügt über mehr als 20 Jahre Erfahrung in der Analyse von Softwareprojekten und -produkten in unterschiedlichen Branchen. Er hat diverse Aktivitäten in den Bereichen Messen, Vorhersage und Verbesserung von Software in Softwareunternehmen unterschiedlicher Größe und in verschiedenen Domänen geleitet (u.a. in Deutschland, Japan und Indien). In diesem Kontext hat er Vorhersagemodelle für Softwarekosten und -qualität entwickelt und empirisch validiert.

Derzeit liegt der Tätigkeitsschwerpunkt von Dr. Trendowicz auf Datenqualität und -vorbereitung im Kontext von maschinellem Lernen sowie auf dem Lean Deployment von datengetriebenen Innovationen auf Basis von Lösungen aus den Bereichen maschinelles Lernen und Künstliche Intelligenz.

Dr. Trendowicz ist Mitbegründer des von der Fraunhofer-Allianz Big Data und Künstliche Intelligenz angebotenen Weiterbildungs- und Zertifizierungsprogramms „Data Scientist“. Er hat ferner mehrere Tutorials zu den Themen Business-IT-Abgleich, Softwarequalitätsmessung und Kostenschätzung gehalten. Schließlich ist er Co-Autor mehrerer Bücher und zahlreicher Veröffentlichungen in internationalen Fachzeitschriften und auf Konferenzen.

Lisa Joeckel, Fraunhofer IESE
© Fraunhofer IESE

Lisa Jöckel beschäftigt sich seit 2018 mit der Absicherung von KI-basierten Systemen als Senior Data Scientist am Fraunhofer IESE. Ein Fokus ist dabei die Bewertung von Unsicherheiten in den Entscheidungen datengetriebener Modelle. Des Weiteren beschäftigt sie sich mit dem Testen solcher Modelle und der Qualität der Testdaten. Sie studierte Informatik an der Technischen Universität Kaiserslautern mit Schwerpunkt in Datenvisualisierung und Computergrafik.

Pascal Gerber, Fraunhofer IESE
© Fraunhofer IESE

Pascal Gerber hat Informatik an der TU Kaiserslautern studiert. In seinen Abschlussarbeiten sowie während seiner Tätigkeit als studentische Hilfskraft am Fraunhofer IESE befasste er sich unter anderem mit Reinforcement Learning und Qualitätseinflussmodellen zur Bewertung von Unsicherheiten in den Entscheidungen datengetriebener Modelle.

Nach seinem Studium begann er 2021 in der Abteilung »Safety Engineering« zu arbeiten und hat dabei grundlegende Kompetenzen im Safety Engineering erworben. Seit 2023 ist er in der Abteilung »Data Science« tätig und beschäftigt sich gegenwärtig mit Qualitätseinflussmodellen.

Anmeldung

Bitte füllen Sie das untenstehende Anmeldeformular aus. Die maximale Teilnehmerzahl ist 15. Die Anmeldungen werden in der Reihenfolge ihres Eintreffens berücksichtigt.

Ist das Seminar zu Ihrem favorisierten Termin bereits ausgebucht, haben Sie die Möglichkeit, sich auf die Warteliste setzen zu lassen. Die Warteliste ist für Sie unverbindlich und kostenlos. Sobald ein Platz frei wird, kümmern wir uns schnellstmöglich um eine Nachbesetzung und würden uns dann mit Ihnen in Verbindung setzen.

Seminar Absicherung KI

Die Kosten belaufen sich auf 4.350 Euro inkl. Verpflegung vor Ort. Präsenzveranstaltungen finden in Kaiserslautern statt.

* Pflichtfelder

Wählen Sie bitte einen Termin aus:
Datenschutz
  • Selbstverständlich behandeln wir Ihre Daten vertraulich und geben sie nicht an Dritte weiter. Sie können der Einwilligung in die Verarbeitung Ihrer Daten jederzeit widersprechen.

  • Die Teilnahmegebühr ist steuerfrei gem. § 4 Nr. 22a UStG.
    Sie umfasst Begleitunterlagen, die Prüfungsgebühr und Verpflegung bei Präsenzveranstaltungen.

    Von unserer Abteilung Rechnungswesen erhalten Sie im Anschluss an die Schulung eine offizielle Rechnung an die uns genannte Adresse. 

  • Das Zertifikat zum Seminar Absicherung von KI wird durch die Fraunhofer-Personenzertifizierungsstelle ausgestellt.

    Als Zugangsvoraussetzungen gilt ein Studium oder äquivalente Qualifikationen durch einen Einzelnachweis.