Autonome Systeme und Dependable AI: Potenziale für die Zukunft

Autonome Systeme: großes Potenzial für die digitale Zukunft

Autonome Systeme bieten enormes Potenzial, entscheidend zur Lösung der aktuellen ökologischen, gesellschaftlichen und wirtschaftlichen Herausforderungen beizutragen. Dieser Blog-Beitrag erklärt begleitend zu unserer Podcast-Folge zum Thema »Autonome Systeme», was autonome Systeme sind, welche Arten es gibt, wo sie zur Anwendung kommen, welche Potenziale sie bieten, welche Hürden es gibt, warum ihre gesellschaftliche Relevanz zunehmen wird, was Künstliche Moral ist und zeigt, wie das Fraunhofer IESE Unternehmen bei Autonomen Systemen unterstützen kann.

Autonome Systeme und Künstliche Intelligenz: der Zusammenhang

Ein autonomes System kann etwas selbstständig tun. Diese Beschreibung reicht allerdings nicht um eine Abgrenzung zur klassischen Vollautomatisierung zu ziehen, wie dies in unserem Blog-Beitrag zum Thema »Autonom oder vielleicht doch nur hochautomatisiert – was ist eigentlich der Unterschied?« näher erläutert wird. Die Frage ist, was das »Selbst« von autonomen Systemen tatsächlich ausmacht und diese somit charakterisiert. Es geht dabei nicht nur darum, dass das System etwas ohne menschliche Steuerung tut, sondern auch darum, dass dem System nicht alles detailliert einprogrammiert wurde:

»Ein System wird als autonom bezeichnet, wenn es ohne menschliche Steuerung oder detaillierte Programmierung ein vorgegebenes Ziel selbstständig und an die Situation angepasst erreichen kann.«[1]

Ab wann wir bei autonomen Systemen nicht mehr von detaillierter Programmierung sprechen, wird aktuell noch kontrovers diskutiert, aber viele Methoden aus dem Bereich der Künstlichen Intelligenz – wie maschinelles Lernen – kann man sicherlich dazu zählen. Wenn man die genannten KI-Methoden allerdings nur sehr dediziert einsetzt, um bestimmte Teilaufgaben wie eine Fußgängererkennung zu implementieren, dann ist die Implementierung wieder recht nah bei einer detaillierten Programmierung zu verorten.

Autonomie ist generell als graduelles Konzept zu verstehen. Auch in Bezug auf die Abwesenheit von menschlicher Steuerung kann man Autonomie als graduelles Konzept betrachten. Oft ist der Mensch eine Rückfallebene und muss in die Steuerung eingreifen. Zusätzlich gibt es häufig bestimmte Betriebsmodi, bei denen das System manuell gesteuert werden kann.

Hören Sie auch in unserem Podcast MORGEN DENKER mehr zu Autonomen Systemen. Im Interview: Dr. Rasmus Adler, Programm-Manager »Autonomous Systems« am Fraunhofer IESE

 

Podcast Dependable AI – Autonome Systeme bieten großes Potenzial für die digitale Zukunft

Arten autonomer Systeme

Autonome Systeme lassen sich nach zwei Arten unterscheiden:

  • Autonome Systeme, die nur in einer virtuellen Welt wie dem Internet agieren. Beispielsweise Systeme, die autonom cyber-Angriffe abwehren oder autonom Handeln.
  • Autonome Systeme, die einen Einfluss auf die physische Welt haben. Dies können einzelne Systeme sein oder vernetzte cyber-physische Systeme. Beispielsweise kollaborative Roboter, Robo-Taxis, Feldroboter, Drohnen, Operationsroboter, ein autonomes Warenhaus, ein autonomes Energiemanagementsystem oder eine ganze Smart City, die autonom Prozesse steuert.

Das Fraunhofer IESE fokussiert sich in seiner Wissenschaft und Forschung auf den Zweiten der genannten Typen von autonomen Systemen und konzentriert sich damit insbesondere auf vernetzte cyber-physische Systeme.

Anwendungsfälle, Potenziale und Branchen für autonome Systeme

Die Aufgaben, die autonome Systeme übernehmen, lassen sich grob wie folgt klassifizieren:

  • Aufgaben, die Menschen nicht erledigen können, weil beispielsweise ihre Fähigkeit Informationen zu verarbeiten oder ihre Reaktionszeit nicht ausreicht. Ein intelligentes Energiemanagementsystem würde in diese Kategorie fallen.
  • Aufgaben, die Menschen zwar grundsätzlich erledigen könnten, bei denen aber eine Autonomisierung sinnvoll ist. Autonomes mechanisches Unkrautmanagement oder autonomes Fahren würden in diese Kategorie.

Autonome Systeme bieten ein enormes Potenzial, um dem aktuellem Personalmangel in vielen Branchen entgegenzuwirken und für den demographischen Wandel besser aufgestellt zu sein. Autonome Mobile Roboter (AMRs) sind ein gutes Beispiel dafür, in wie vielen Branchen es Anwendungsfälle gibt. AMRs können im Gesundheitswesen zur Lieferung von Medikamenten oder in der Intralogistik von Krankenhäusern eingesetzt werden. Sie können Last Mile Lieferungen übernehmen, im Bereich Outdoor-Security eingesetzt werden, bei Inspektionen oder Wartungsarbeiten zum Tragen kommen und sie stellen eine wesentliche Komponente in autonomen Warenhäusern dar.

Autonome Systeme bergen zudem große Potenziale, was die ökologische und nachhaltige Gestaltung der Landwirtschaft, Mobilität und Produktion angeht. Autonome Feldroboter und Drohnen können in der Landwirtschaft beispielsweise den Einsatz von Pflanzenschutzmitteln reduzieren und die Biodiversität erhöhen. Auch der Personen- und Güterverkehr kann durch autonome Systeme effizienter gestaltet werden. Denn auch damit lassen sich die CO2-Emissionen senken.  In innovativen, urbanen Mobilitätskonzepten spielen autonome Systeme ebenfalls eine wichtige Rolle. Dabei geht es nicht nur um die einzelnen cyber-physischen Systeme (wie einen People Moover), sondern vor allemum das autonome Management dieser Systeme. Höhere Automatisierungsstufen im Schienenverkehr gehen ebenfalls mit einer Effizienzsteigerung einher. Lösungen wie das Truck Platooning können somit Emissionswerte minimieren.

Viele dieser Lösungsansätze sind disruptiv und es muss ganzheitlich gedacht werden, um die Ansätze umzusetzen und unerwünschte Effekte zu vermeiden. Viele Ansätze fordern dabei firmenübergreifende Kooperationsmodelle und den Aufbau digitaler Ökosysteme.

Geschäftsmodelle bei autonomen Systemen

Um autonome Systeme mit all ihren Chancen und Potenzialen tatsächlich gesellschaftlich zu etablieren, ist nicht nur eine Akzeptanz solcher Systeme nötig, sondern insbesondere auch neue Geschäftsmodelle.  Denn autonome Systeme sind nicht selten für den Privatbesitzt zu teuer und es ist auch nicht sinnvoll, wenn jede*r ein autonomes System besitzt. Entsprechend bietet sich hierbei ein Wechsel zu Betreibermodellen an. . Die Kosten für solche Fahrzeuge sind extrem hoch und Sie rentieren sich nicht, wenn Sie wie übliche PKW einen Großteil ihrer Lebenszeit nur rumstehen würden. Zugleich können auch bei autonomen Feldrobotern oder AMRs Betreibermodelle sinnvoll sein. Für den Hersteller eines Systems bedeutet dies, dass er fortlaufend unterschiedliche Kunden haben wird. Möglicherweise gibt es in diesem Bereich sogar noch gar keine Betreiber und der Hersteller muss sich überlegen, ob er/sie die Betreiberrolle übernehmen möchte.

Autonome Systeme und ihre Hürden

Eine weitere Voraussetzung für die Einführung autonomer Systeme ist, dass sie Ihre Sie ihre Aufgaben verlässlich erledigen. Verlässlichkeit umfasst dabei viele Qualitätseigenschaften wie Sicherheit, Verfügbarkeit, und Zuverlässigkeit. Insbesondere die Sicherheit (Safety) stellt dabei häufig eine Hürde da. Traditionelle Sicherheitskonzepte sind für autonome Systeme oft ungeeignet, weil sie die Performanz oder die Verfügbarkeit der Systeme zu stark einschränken würden. Für den jeweiligen Anwendungsfall lässt sich aber dennoch oft ein gutes Sicherheitskonzept ableiten.

Der Datenschutz kann bei autonomen Systemen ebenfalls eine Hürde darstellen. Dabei ist ein kompletter Datenschutz oft gar nicht das eigentliche Anliegen, sondern eine flexible und vertrauenswürdige Datennutzungskontrolle. Dafür gibt es bereits technische Lösungen, aber diese Lösungen sind noch nicht allgemein bekannt. Außerdem müssen die Lösungen auf den Anwendungsfall zugeschnitten werden und das Bedarf eines gewissen Know-hows.

Darüber hinaus stellt für viele Unternehmen insbesondere der Schritt von geschlossenen physischen Systemen hin zu vernetzten cyber-physischen Systemen eine große Hürde dar. Sie haben oft viele Altlasten in ihren Systemarchitekturen und wissen nicht wie sie ihre Architekturen am besten modernisieren und öffnen sollen.

Autonome Systeme gewinnen an gesellschaftlicher Relevanz

Autonome Systeme halten bis jetzt nur recht langsamen Einzug in unsere Gesellschaft. Es gibt beispielsweise bisher kaum autonome Shuttlebusse in Städten und von den zahlreichen, bisher bestehenden Anwendungsfällen von AMRs oder Drohnen wurden bisher auch nur sehr wenige umgesetzt. Damit wird es also immer mehr einzelne physische Systeme geben, die autonom operieren. Weiterhin wird es immer größere Systeme beziehungsweise Kollektive von cyber-physischen Systemen geben, die gemeinsam eine größere Mission autonom erledigen können. Diese Entwicklungen werden dazu führen, dass autonomes Systemverhalten einen immer stärkeren Einfluss auf unsere Gesellschaft und Umwelt haben wird. Die gesellschaftliche Relevanz autonomer Systeme wird damit also stetig wachsen.

Mit zunehmendem Einfluss autonomer Systeme auf die Gesellschaft, wird es auch zunehmend wichtiger sein, sicherzustellen, dass die autonomen Systemverhalten zu den gesellschaftlichen Werten passen. Bei autonomen Systemen ist es daher besonders wichtig, sie als den technischen Teil eines soziotechnischen Systems zu verstehen und beim Engineering die Wechselwirkungen mit dem sozialen Teil des soziotechnischen Systems zu berücksichtigen. Das gilt nicht nur für das Engineering von großen Systemkollektiven (wie in einer Smart City), sondern auch für das Engineering von kleineren Systemverbünden bis hin zu dem Engineering einzelner autonomer Systeme wie Kollaborative Roboter (Cobots).

Künstliche Moral und Dynamisches Risikomanagement

Es gibt viele komplementäre Ansätze wie das autonome Verhalten nach gesellschaftlichen Werten sichergestellt werden kann. Eine Grundidee besteht darin, den autonomen Systemen eine »Künstliche Moraleinzuprogrammieren. Man kann dies mit klassischer Programmierung probieren oder mit Methoden aus dem Bereich der Künstlichen Intelligenz, z. B. maschinellem Lernen. Es gibt aber noch einen weiteren Zusammenhang zwischen Künstlicher Moral und Künstlicher Intelligenz, denn der der Begriff »Künstliche Intelligenz« wird nicht nur als Sammelbegriff von Methoden wie »Maschinellem Lernen« verwendet. »Künstliche Intelligenz« wird auch verwendet, um zu beschreiben, dass Systeme kognitiv anspruchsvolle Aufgaben, wie Schachspielen beherrschen. Es gibt aber viele Aufgaben, bei denen es gar nicht (oder nicht nur) auf die kognitiven Fähigkeiten ankommt, sondern auf die Fähigkeit moralisch » richtig« zu entscheiden. Die Bezeichnung »Künstliche Moral« zielt eben genau auf diese Fähigkeit ab.

Das Fraunhofer IESE untersucht Künstliche Moral im Kontext des dynamischen Risikomanagements. Beim dynamischen Risikomanagement werden autonome Systeme in die Lage versetzt, die Risiken ihrer Handlungsoptionen einzuschätzen, um eine Auswahl zu treffen. Die Risikobewertung und Auswahl einer Handlungsoption gehen dabei häufig mit ethischen Fragestellungen einher. Im sicherheitskritischen Bereich ist das beispielsweise die Frage »Wie sicher ist sicher genug?«.

Es kann natürlich nicht sein, dass Entwickler*innen diese und andere ethische Fragestellungen selbst beantworten. Deswegen gibt es Regularien und Normen, die Hilfestellung bieten. Interessanter Weise bezieht sich die Regulierung ethischer Aspekte häufig auf Künstliche Intelligenz, obwohl die Frage der Moral auch dann aufkommt, wenn man sich bei der Implementierung von Künstlicher Moral nicht der Methoden der Künstlichen Intelligenz bedient. Allerdings ist es auch kontrovers zu betrachten, welche Methoden dem Bereich der Künstlichen Intelligenz zugeordnet werden. Der aktuelle Regulierungsvorschlag der Europäischen Kommission liefert beispielsweise eine sehr breite Definition.

Wie kann das Fraunhofer IESE Unternehmen hinsichtlich des Themas »Autonome Systeme« unterstützen

Mit unserer umfassenden Expertise rund um die Themen »Autonome Systeme«, »Software Engineering«, »Safety« und »Dependable AI« bieten wir, das Fraunhofer IESE; Unternehmen umfassende Unterstützung aus einer Hand an, wenn es um die Etablierung und Gestaltung autonomer Systeme geht. Das Fraunhofer IESE unterstützt sowohl bei strategischen Entscheidungen, als auch bei Fragestellung zur technischen Entwicklung, zur Markteinführung und zum Betrieb autonomer Systeme.

Damit bieten unsere Expert*innen unseren Kund*innen Entscheidungssicherheit bei strategischen Entscheidungen bezüglich der Autonomisierung. In Workshops arbeiten wir hierzu beispielsweise neuralgische Punkte heraus und adressieren diese mit entsprechenden Maßnahmen wie Konkurrenz- und Trend-Analysen oder anwendungsorientierten Machbarkeitsstudien. Auch oder insbesondere im Falle herstellerübergreifender Geschäftsmodelle und Wertschöpfungsketten ist das Fraunhofer IESE der ideale unabhängige Partner, der alle wichtigen Stakeholder identifiziert und zusammenbringt.

Wir, am Fraunhofer IESE unterstützen Ihr Unternehmen beim Engineering autonomer Systeme mit unseren umfassenden Kompetenzen im Requirements Engineering, in der Architekturmodellierung, im Bereich der Data Science sowie im Safety Engineering und auf dem Gebiet der User Experience.

Mit unserem Institut bieten wir Ihnen viele technische Enabler für Innovationen. Dazu zählen insbesondere innovative Absicherungskonzepte wie das dynamische Risikomanagement und technische Lösungen für eine funktionierende Datennutzungskontrolle.

Mehr zu Autonomen Systemen und Dependable AI

Einen umfassenden Überblick über die Themen »Autonome Systeme« und »Verlässliche KI/Dependable AI« sowie die Lösungsbausteine des Fraunhofer IESE finden Sie hier:

 

 

Morgen Denker-Podcast (Fraunhofer IESE)

 

Darüber hinaus greifen wir das Thema Dependable AI auch in unserem MORGEN DENKER-Podcast zum 25. Jubiläum des Fraunhofer IESE auf. Hören Sie gerne mal rein.

 

 

 

Falls Sie Fragen zu »Autonomen Systemen« und/oder »Dependable AI« haben, nach Partnern im Rahmen öffentlich geförderter Forschungsvorhaben suchen oder ein konkretes Problem bei der Absicherung Ihres KI-Systems haben, zögern Sie nicht, unsere konkreten Ansprechpartner zu kontaktieren!

 

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.