Robotik-Konferenz ICRA: Debatten zur Zukunft der Robotik

„Es ist besser, eine Frage zu diskutieren, ohne sie zu klären, als eine Frage zu klären, ohne sie zu diskutieren.“ Eine Debatte über die Zukunft der Robotik.

In Pocket speichern vorlesen Druckansicht 7 Kommentare lesen
ICRA: Debatten zur Zukunft der Robotik

(Bild: Hans-Arthur Marsiske)

Lesezeit: 6 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Es war einer von 23 parallel laufenden Workshops am letzten Tag der Robotik-Konferenz ICRA (International Conference on Robotics and Automation), aber der einzige, der die Zukunft im Titel trug. Organisiert von vier Forschern der University of Toronto, stellte er drei Aussagen in den Mittelpunkt, die jeweils von zwei Befürwortern verteidigt und zwei Gegnern in Frage gestellt werden sollte, um so eine offene Diskussion in Gang zu bringen. Dazwischen war außerdem Zeit für einige kurze Vorträge zu verschiedenen Themen.

Die Pro-und-Contra-Debatten entpuppten sich als größtenteils unterhaltsam, was damit zusammenhängen mochte, dass auf dem Podium Personen versammelt wurden, die zu einem Schaukampf antreten sollten, bei dem sie teilweise nur zum Schein konträre Positionen vertraten. Die Teilnehmer fingen diese künstlich aufgebaute Spannung mit Humor auf. Die Scherze wurden dankbar mit Lachern quittiert, trugen aber nicht immer zur Klärung der Fragen bei.

Das mag auch an den Fragen selbst gelegen haben. Zunächst ging es darum, ob Konferenzen wie die ICRA ein zu breites Themenspektrum abdeckten, um eine vernünftige Auseinandersetzung zu ermöglichen. Dieses emotional vergleichsweise wenig aufgeladene Thema war von den Organisatoren vielleicht auch als eine Art Aufwärmrunde gedacht. Letztlich lief die Diskussion darauf hinaus, dass es darauf ankommt, was man daraus macht. Die persönlichen Begegnungen bei einer Konferenz seien von zentraler Bedeutung, ob groß oder klein, die Kaffeepausen waren ein wichtiger Rahmen für intensive Gespräche. Auch die Bedeutung von Workshops als Ort für Diskurse wurde hervorgehoben, was zu der Überlegung führte, die Zahl der Workshop-Tage bei der ICRA zukünftig von zwei auf drei anzuheben.

Die zweite Diskussionsrunde fragte danach, ob die gegenwärtige Dominanz von Verfahren des Deep Learning Einsichten in Probleme der Robotik behindert. Hier gab Oliver Brock (TU Berlin) in seinem Eingangsstatement eigentlich schon die Antwort, als er den Alchemisten Paracelsus zitierte, der einst festgestellt hat, dass „die Dosis das Gift“ ist. Bei der ICRA habe sich eine überwältigende Mehrheit der eingereichten Paper mit Deep Learning beschäftigt. Ein solches Übergewicht bringe das Risiko mit sich, Wissen zu verlieren. Angela Schoellig (University of Toronto) stellte fest, dass Deep Learning sich nicht wesentlich von anderen mathematischen Modellen unterscheide, mit denen Forscher arbeiteten. Deep Learning sei lediglich komplexer, aber auch ausdrucksstärker und zeige uns letztlich, wie komplex die wirkliche Welt sei. Brock musste in der Diskussion dann mehrmals betonen, dass er nichts gegen diesen Ansatz habe. Es ginge darum, wie dieses leistungsfähige Werkzeug am besten genutzt werde.

Um der gegenwärtigen Dominanz von Deep Learning angemessen zu begegnen, schlug Ryan Gariepy (Clearpath Robotics) vor, gescheiterten Experimenten mehr Raum zu geben. Experimente, die nicht zu den erwarteten Ergebnissen geführt haben, würden vergleichsweise selten publiziert, obwohl auch sie Erkenntnisse bringen. Brock schloss sich dem an und forderte mehr Mut, über die Dinge zu reden, die nicht funktionieren. „Wir müssen das Problem lieben, bis es unsere Liebe erwidert“, sagte er.

Die letzte Runde widmete sich dann mit der Frage nach der Notwendigkeit von Regulierung und Zertifizierung von Robotiktechnologie dem wohl brisantesten Thema. „Roboter können Menschen Schaden zufügen, also muss ihr Einsatz geregelt werden“, forderte James Mickens (Harvard University). Er riet dazu, dystopische Visionen der Science-Fiction ernst zu nehmen. „Wir sollten versuchen, dem Problem voraus zu sein.“ Ludovic Righetti (New York University) ergänzte, dass es nicht nur um die Sicherheit der Technologie ginge. Die Regulierung müsse auch die gesellschaftlichen Auswirkungen im Auge haben. So könne der Einsatz von Roboterpflegern den menschlichen Kontakt vermindern. Autonome Waffensysteme drohten, einen Rüstungswettlauf in Gang zu setzen. Und die Einführung autonomer Fahrzeuge könnte die Zahl von Autos noch weiter erhöhen.

Aude Billard (EPFL) hielt dagegen, dass Länder, die auf Regulierungen verzichteten, einen Konkurrenzvorteil hätten. Ein intelligenter Roboter könne zudem nicht zertifiziert werden, weil er sich durchs Lernen ständig verändere. Melonee Wise (Fetch Robotics) gab zu bedenken, dass die Formulierung von Regeln für etwas, das noch nicht existiere, sehr anfällig für Fehler sei und der Industrie Steine in den Weg lege. Zudem solle man nicht soziale Probleme mit technologischen vermengen.

International Conference on Robotics and Automation – IRCA 2019 (4 Bilder)

Die ICRA 2019 präsentierte in einem eigenen Programmteil erstmals künstlerische Arbeiten zum Thema Robotik, wie TheObsessiveDrafter von Guillaume Crédoz, der Porträts von Personen zeichnet, denen er begegnet. „Das von John von Neumann entwickelte Konzept der selbst-replizierenden Maschine lässt uns glauben, dass die Menschen am nächsten Schritt ihrer Evolution arbeiten“, schreibt Alain Thibault, Kurator des Robotic Art Program ICRA-X. „Die Idee dieser Ausstellung kreist um die Sehnsucht, mit der Maschine in Kontakt zu kommen, sie zu zähmen, zu beobachten und Spaß zu haben an ihrer Sehnsucht, menschliche Tätigkeiten auszuführen.“
(Bild: Hans-Arthur Marsiske)

Mickens entgegnete, dass soziale und technologische Fragen nicht voneinander getrennt werden könnten. Eine Minimierung möglichen Schadens sei auch nicht gleichbedeutend mit der Maximierung gesellschaftlichen Nutzens. Righetti verwies auf Erfahrungen aus der Rüstungskontrolle, die zeigten, dass Regulierungen in einzelnen Ländern durchaus international Wirkung haben könnten, weil sie neue soziale Normen setzten. Die seien letztlich stärker als gesetzliche Regeln und hätten unter anderem bewirkt, dass chemische Waffen, obwohl leicht herzustellen, so gut wie gar nicht mehr eingesetzt würden.

Mickens unterstrich das, indem er zum Schluss der Diskussion betonte, dass hinter den Fragen nach Regulierung und Zertifizierung die eigentlich wichtigen nach der Ethik der Technologie und der Verantwortung der Forscher eine Antwort erfordern. Das wird dann möglicherweise auf einer der nächsten Konferenzen diskutiert. Die Workshopserie soll jedenfalls fortgesetzt werden.

Lesen Sie dazu auch:

(bme)