Thema IA2IA – neue Kolumne von Dr. Andreas Helget ist online

Thema IA2IA – neue Kolumne von Dr. Andreas Helget ist online

4. Mai 2020

Autonome Systeme

Selbstfahrende Autos sind bekannt. In anderen Anwendungsgebieten ist die „Autonomie“ aber ebenfalls ein großes (Zukunfts-)Thema, so auch in der Prozessindustrie. Doch was verstehen wir derzeit eigentlich unter „autonomen Systemen“ und wohin geht die Reise?

Dazu drei Fragen an Dr. Andreas Helget, Geschäftsführer Yokogawa Deutschland.

 

Wo liegt der Unterschied zwischen „hochautomatisiert“ und „autonom“?

Dr. Andreas Helget: Ich fange einmal bei der Begrifflichkeit an: autonom zu sein, heißt: unabhängig sein. In der Technik bedeutet autonom nichts anderes, als die Fähigkeit, sich selbst zu steuern. Ein autonomes System kann unabhängig agieren – das heißt ohne direkte Lenkung durch den Menschen und unter nicht zuvor eingeübten Bedingungen.

So kann ein automatisierter Roboter, der in einer kontrollierten Umgebung arbeitet, die Windschutzscheibe eines Autos jedes Mal genau an dieselbe Stelle montieren. Ein autonomer Roboter würde diese Aufgaben ebenfalls ausführen, dieser Roboter aber könnte das auch an ihm unbekannten Orten tun, das heißt: Die Einsatzumgebung muss nicht mehr eindeutig und vorab definiert sein. Zudem könnte er selbstständig eine Handlungsalternative wählen bzw. seine Reaktion anpassen, wenn die Scheibe beispielsweise beschädigt wäre.

Autonomes System entscheidet selbstständig

Für ein automatisiertes System in der Industrie bedeutet das: Prozessänderungen werden von Ingenieuren oder Informatikern vorgenommen. Ein autonomes System hingegen würde selbständig entscheiden, wann es welche Mittel einsetzt, um das Ziel zu erreichen – ohne dass der Mensch in die Entscheidung eingreift.

Ob autonome Systeme einfach nur die logische Weiterentwicklung automatisierter Systeme sind, darüber wird zwischen Informatikern und Ingenieuren viel diskutiert. Automation folgt vorgegebenen Prozessen, indem sie zwischen eindeutig festgelegten, vorgegebenen Möglichkeiten entscheidet. Auch wenn das sehr komplex sein kann, ist es doch weit davon entfernt, selbstbestimmt zu agieren. Ein autonomes System ist auf jeden Fall mehr als die Summe seiner Einzelteile: Es führt programmierte Vorgänge aus, es reagiert auf Sensorimpulse; aber es ist eben auch in der Lage, sich an veränderlichen Erfahrungen zu orientieren, also zu „lernen“. Hier liegt der entscheidende Schritt von der Automatisierung zu autonomen Systemen.

 

Wie autonom soll das autonome System sein?

Dr. Andreas Helget: Menschliche Fehlbarkeit ist ein gewaltiges Hindernis. Insofern könnten autonome Systeme ein Segen für uns Menschen sein. Allein die Unfälle im Straßenverkehr zeigen uns das jeden Tag aufs Neue. Aber auch in der verarbeitenden Industrie ist – trotz der vielen technologischen Innovationen – menschliches Versagen nach wie vor die häufigste Ursache für Arbeitsunfälle.

Wenn wir auf die vier wichtigsten Anwendungsbereiche blicken, wird die Antwort aber für jeden Bereich anders ausfallen. Die Akzeptanz autonomer Systeme wird im Straßenverkehr und auch für Smart Home einen ganz anderen Grad, nämlich einen viel niedrigeren, einnehmen als vergleichsweise in der industriellen Produktion. Für den Einsatz in menschenfeindlichen Umgebungen wird die Akzeptanz besonders groß sein, man denke nur an Störfälle in explosiven Umgebungen, an unwegsames Gelände wie die Wüste, durch die Pipelines geführt werden, oder die Bemannung für einen Mars-Forschungsshuttle.

Optimierungen von Qualität, Zeit und Ressource

Für die Industrie ist die Wirtschaftlichkeit maßgeblich, sie wird das entscheidende Kriterium für die Implementierung und Nutzung autonomer Systeme sein. Die Vorteile, die man sich von der Autonomie verspricht, nämlich die Optimierung von Qualität, Zeit und Ressource,  lassen sich ökonomisch beziffern.

Bei allen Überlegungen und Abwägungen, die noch vorzunehmen sind – und das sind neben Akzeptanz, Wirtschaftlichkeit und Sicherheit noch etliche – ist es wichtig, immer den Menschen, und nicht die Technik ins Zentrum zu stellen. Das scheint selbstverständlich, ist aber tatsächlich eine der größten Herausforderungen. Die Fähigkeit eines technischen Systems, sich aus seiner Eigenleistung weiterentwickeln zu können, führt dazu, dass es mehr und mehr Funktionen selbst bestimmt und übernimmt. Folgt daraus, dass die technische Evolution der biologischen irgendwann überlegen ist, weil eine Maschine schneller lernt, mehr weiß und sich besser anpassen kann?

Leistungsfähige KI muss auf einen Kontext zugreifen können

Bei der Annäherung der KI an die menschliche Intelligenz spielt der Kontext eine maßgebliche Rolle. Sowohl für den Menschen als auch für die künstliche Intelligenz ist er für die Entscheidungsfindung essentiell. Bitte ich beispielsweise einen Kollegen, mich zum Meeting  eine Etage tiefer zu treffen, gehe ich selbstverständlich davon aus, dass er über das Treppenhaus dorthin gelangt – und nicht etwa den kürzeren Weg durch das Fenster wählt. Auf einen Kontext – hier das unbewusste Wissen vom Verhältnis zwischen Zeit, Strecke und Sicherheit – muss auch eine leistungsfähige KI greifen können, also mit den entsprechenden Daten gefüttert werden.

In diesem überschaubaren Beispiel kein großes Problem. Alle Daten für alle Möglichkeiten aber sind unendlich und lassen sich nicht determinieren. Eine noch so große Vielzahl an miteinander verknüpften Informationen, ein noch so vernetzter Datenpool, der Kontext schafft und von Algorithmen in jede erdenkliche Richtung abgefragt werden kann, wird nicht menschliche Kontextdimensionen erreichen können. Schon gar nicht, solange einige Skills, wie zum Beispiel Sprachverständnis oder Gesichtserkennung, mit Logik nicht in Gänze erklärt werden können.

Nicht zuletzt deshalb braucht die KI auch vom Menschen festgelegte Grenzen. Hier kommt die Ethik ins Spiel. EU-Experten haben sich im letzten Jahr zusammengesetzt und Richtlinien für Künstliche Intelligenz – auf der jedes  autonome System basiert – ausgearbeitet, um Fehlentwicklungen entgegenzuwirken. Der Grad an Autonomie eines Systems unterliegt schließlich nicht nur den technischen Limitierungen der KI. Auch rechtliche Rahmenbedingungen und Forderungen nach Datensicherheit setzen hier die entsprechenden Grenzen.

 

Wie sicher ist das autonome System?

Dr. Andreas Helget: So kurz diese Frage ist, so vielfältig sind die Überlegungen dazu, denn „Sicherheit“ hat viele Dimensionen. Der Deutsche Ethikrat hat die meines Erachtens wichtigsten bereits zusammengetragen:

Wer trägt die Verantwortung für die „Handlungen“ autonomer Maschinen, wenn der Nutzer selbst an solchen Entscheidungen nicht oder nur noch am Rande beteiligt ist?

Nach welchen Kriterien sollen Maschinen im Konfliktfall „entscheiden“, und wer legt diese fest?

Wie kann ein angemessener Umgang mit den großen Mengen sensibler Daten gewährleistet werden, die autonome Systeme zwecks optimaler Funktion erheben und austauschen müssen?

Wie lassen sich Risiken minimieren, dass solche Systeme von anderen missbraucht werden?

Für eine konkrete systembezogenen Anwendung in der Industrie aber ist die Antwort eindeutig, denn in der Verfahrens- und Prozesstechnik haben wir den Komplex Automatisierung/Verfügbarkeit schon immer getrennt von der eigentlichen Sicherheit – und zwar Safety UND Security – betrachtet. Hier fügt sich der autonome Betrieb verfahrenstechnische Prozesse nahtlos ein, wenn der Kontext definiert ist.

 


https://www.yokogawa.com/eu/blog/chemical-pharma//de/thema-blockchain-neue-kolumne-von-dr-andreas-helget-ist-online/

https://www.yokogawa.com/eu/blog/chemical-pharma//de/zur-sache-bitte-thema-digitalisierung-6-kolumne-von-dr-helget-ist-online/

https://www.yokogawa.com/eu/blog/chemical-pharma//de/8555/

[Gesamt: 0   Durchschnitt:  0/5]

Keine Kommentare

Schreibe einen Kommentar

Noch keine Kommentare

Seien Sie der Erste, der einen Kommentar schreibt.

Ihre Daten sind sicher!Ihre E-Mail wird nicht veröffentlicht. Es werden keine Daten mit Dritten geteilt.