Webinar »Verlässliche KI«

Hintergründe, Herausforderungen und Lösungsansätze zur Absicherung von Systemen mit KI-Komponenten 

Künstliche Intelligenz (KI) im Allgemeinen und Machine Learning (ML) im Besonderen gewinnt auch im Kontext sicherheitskritischer Systeme zunehmend an Bedeutung. Entsprechend stellt sich die Frage nach der Gewährleistung und dem Nachweis der funktionalen Sicherheit. In diesem Webinar werden zunächst einige Grundlagen zum Thema Machine Learning vermittelt. Anschließend wird dann auf Herausforderungen und Lösungsansätze bezüglich der Absicherung eingegangen.

 

 

Datenschutz und Datenverarbeitung

Wir setzen zum Einbinden von Videos den Anbieter YouTube ein. Wie die meisten Websites verwendet YouTube Cookies, um Informationen über die Besucher ihrer Internetseite zu sammeln. Wenn Sie das Video starten, könnte dies Datenverarbeitungsvorgänge auslösen. Darauf haben wir keinen Einfluss. Weitere Informationen über Datenschutz bei YouTube finden Sie in deren Datenschutzerklärung unter: https://policies.google.com/privacy

Webinar »Verlässliche KI« – Aufzeichnung vom 28. Mai 2020

Mehr zu »Verlässlicher KI«

Falls Sie Fragen zu »Verlässlicher KI« haben, nach Partnern im Rahmen öffentlich geförderter Forschungsvorhaben suchen oder ein konkretes Problem bei der Absicherung Ihres KI-Systems haben, zögern Sie nicht, uns zu kontaktieren!

Einen umfassenden Überblick über »Verlässliche KI« und die Lösungsbausteine des Fraunhofer IESE finden Sie hier:

Leistungen »Verlässliche KI/Dependable AI«  

 

Termin Bereits stattgefunden. Aufzeichnung vom Mai 2020 verfügbar
Dauer 60 Minuten 
Sprache deutsch 
Zielgruppe
Safety Engineers und Safety-Manager*innen, KI-Entwickler*innen

Daniel Schneider, Fraunhofer IESE
© Fraunhofer IESE

Dr.-Ing. Daniel Schneider erhielt sein Diplom in Informatik 2004 von der TU Kaiserslautern und wurde daraufhin Mitarbeiter des Fraunhofer IESE. In seiner Zeit am Institut übernahm er verschiedene Rollen (wissenschaftlicher Mitarbeiter, Projektmanager, Senior Engineer, Programmmanager) und war, entsprechend seiner Rollen, Mitarbeiter und Projektleiter von zahlreichen Forschungs- und Industrieprojekten. Seit Mitte 2014 leitet er die Abteilung »Safety Engineering«, welche sich schwerpunktmäßig mit dem Thema »Funktionale Sicherheit« beschäftigt.

Daniel Schneider ist Autor von über 50 Publikationen, regelmäßig Vortragender auf Tagungen, Mitglied in verschiedenen Beiräten und Gremien und Tagungsleiter der »Safety meets Security« Tagung. Seine Promotion fertigte er zum Thema bedingte Safety-Zertifizierung offener adaptiver Systeme an.

 

Bezüglich der Lösungsansätze wird zunächst ein integrierter Safety- und ML-Engineering Lifecycle skizziert und diskutiert. Auf einige der Aktivitäten des Lifecycles wird sodann etwas detaillierter eingegangen, darunter:

  • Nutzung von Assurance Cases als Rückgrat des Engineerings
  • Nutzung von Explainable AI zur Generierung von Evidenzen
  • Nutzung von Maßnahmen auf Architekturebene wie z.B. einem Safety Supervisor
  • expliziter Umgang mit Unsicherheiten bezüglich der Klassifikationen/Entscheidungen einer ML-Komponente
  • Einbettung des Ganzen in das umfassendere Konzept des dynamischen Risikomanagements