Seminar Safe-AI: Sichere Lösungen, die KI enthalten

Nächste Termine

Jetzt auch als Online-Seminar!

 
  • 20. April 2021, 9-17 Uhr (kostenpflichtig)
  • 16. Juni 2021, 9-17 Uhr (kostenpflichtig)

Weitere Termine für 2021 in Planung.

 

Safe AI - Sichere Lösungen, die KI enthalten

Methoden der Künstlichen Intelligenz (AI), wie Maschinelles Lernen (ML) und insbesondere Deep Learning (DL), sind weit verbreitet, wenn es um unkritische Anwendungen wie Sprachassistenten geht. Im safetykritischen Umfeld gibt es zwar auch viele Anwendungsfälle mit enormem wirtschaftlichem Potenzial, aber das Potenzial kann aktuell noch nicht voll ausgeschöpft werden. Ein prominentes Beispiel ist die Nutzung von ML-basierter Objekterkennung für das automatisierte Fahren. Es gibt sehr viele Ansätze, um ML-basierte Komponenten verlässlicher zu machen, und aufgrund der intensiven Forschung gibt es zunehmend neue Ansätze. Hersteller sollen sich an den Stand der Wissenschaft und der Technik halten, aber wie soll das funktionieren, wenn die Wissenschaft quasi täglich neue Ergebnisse publiziert und diese möglicherweise noch unterschiedliche Standpunkte vertreten? Sicherheitsnormen sollen den gesicherten Stand der Technik beschreiben, aber traditionelle Normen wie die Sicherheitsgrundnorm IEC 61508 berücksichtigen die KI-Entwicklung nicht. Sie gehen davon aus, dass Sicherheitsfunktionen ohne KI realisiert werden und KI-Komponenten durch diese traditionellen Sicherheitsfunktionen abgesichert werden. Es gibt zwar viele Normen, die sich mit KI beschäftigen, aber im Hinblick auf Safety nicht ausreichen, beziehungsweise auf traditionelle Sicherheitsnormen verweisen, wie beispielsweise der technische Report ISO/IEC TR 24028 „Overview of trustworthiness in artificial intelligence”. Der aktuell entstehende technische Bericht ISO/IEC AWI TR 5469 „Functional safety of AI-based systems“ könnte beantworten, was allgemein akzeptiert ist es, wenn es um die Nutzung von KI im safetykritischen Kontext geht. Allerdings wird er keine maßgeschneiderten Safety-Konzepte liefern können. Dazu müssen Safety- und KI-Experten zusammenarbeiten und die Gedanken- und Begriffswelt der jeweils anderen Expertengruppe verstehen.

Der Einsatz von ML bedeutet insbesondere einen Wandel des Entwicklungsparadigmas: Bei der Entwicklung eines klassischen Systems wird dieses typischerweise unter Berücksichtigung von Safety-Anforderungen von Ingenieuren spezifiziert, verfeinert, implementiert und getestet. Wird dagegen ML für bestimmte, üblicherweise komplexe Aufgaben eingesetzt, so dient ein Satz von Beispieldaten als Detailspezifikation; ein Lernalgorithmus generiert auf dieser Basis ein Modell, das im finalen System, nach seiner Prüfung auf weiteren Beispieldaten, verwendet wird, um eine bestimmte Funktion umzusetzen. Allerdings ist bekannt, dass die Art, wie diese Modelle erstellt werden, (oft) nicht deterministisch ist. Außerdem hängt die Qualität solcher Modelle u.a. von den verwendeten Daten, dem Prozess, den verwendeten Lernalgorithmen (Produkt) und der Expertise der Entwickler (Menschen) ab. Der Umstand, dass viele etablierte Verifikations- und Validierungsmethoden durch das Fehlen einer echten Spezifikation und die Nicht-Interpretierbarkeit ML-basierter Lösungen nur partiell anwendbar sind, verkompliziert die Situation hierbei weiter.

Ziel des Seminars

In diesem Seminar erhalten Sie einen einführenden Überblick über den Stand der Technik im Bereich Safety und Künstliche Intelligenz, inklusive relevanter Normen und Normungsinitiativen. Wir diskutieren die Herausforderungen, die sich in diesem Spannungsfeld ergeben, um Ihr Bewusstsein für die Probleme beim Einsatz von KI-Ansätzen in sicherheitskritischen Lösungen zu schärfen. Zudem lernen Sie mögliche Strategien für sichere KI-Lösungen und eine exemplarische Auswahl von Ansätzen kennen, die Ihnen dabei helfen, konkrete Herausforderungen zu adressieren und maßgeschneiderte Safety-Konzepte abzuleiten.

Inhalt des Seminars

  • Motivation – Warum Safe AI?
  • Stand der Praxis im Bereich Safety
    • Definitionen, Normen, Methoden, …
  • Stand der Praxis im Bereich datengetriebene Modelle und KI
    • Ansätze, Einordung, Entwicklungsprozesse, Erprobung
  • Herausforderungen
    • Auswirkungen der Spezifika der KI-Entwicklung
  • Strategien für Safety trotz KI
    • Standards
    • Assurance Cases
  • Best Practices
    • Überblick
    • Safety Supervisor
    • Dynamic Risk Management
    • Uncertainty Wrapper
Bei Interesse bieten wir Ihnen gerne auch individuelle, auf Ihre Branche bzw. Ihr Unternehmen zugeschnittene Seminare in einer geschlossenen Gruppe mit Teilnehmenden aus Ihrem Unternehmen an.

 

Anmeldung zum kostenpflichtigen Online-Seminar »Safe AI - Sichere Lösungen, die KI enthalten«

Termin: 20. April 2021, 9-17 Uhr (kostenpflichtig)

Teilnahmegebühr: 950,00 Euro

* Pflichtfelder

Anrede*
Titel
Vorname
Nachname*
Firma*
Straße*
PLZ*
Stadt*
E-Mail*
Land
Einwilligung zur Speicherung und Nutzung Ihrer Daten
Mit Ihrer Eingabe geben Sie die Einwilligung zur Speicherung und Nutzung Ihrer Daten nach dem Bundesdatenschutzgesetz. Die Einwilligungserklärung erfolgt freiwillig und kann jederzeit widerrufen werden.
Datenschutz-
erklärung*
Ich bin damit einverstanden, dass meine personenbezogenen Daten zu Zwecken der Kunden-Betreuung vom Fraunhofer-Institut für Experimentelles Software Engineering IESE erhoben, verarbeitet, übermittelt und genutzt werden.