Wie Roboter wandern lernen
ETH-Forschende um Marco Hutter entwickeln ein neues Steuerungssystem, mit dem sich der Laufroboter ANYmal schnell und robust in schwierigem Gel?nde bewegt. Dank maschinellem Lernen kann der Roboter erstmals seine visuelle Umweltwahrnehmung mit seinem Tastsinn kombinieren.
Steile Passagen auf rutschigem Untergrund, hohe Stufen, Ger?ll und Waldwege mit Wurzeln: Der Weg auf den 1098 Meter hohen Berg Etzel am südlichen Ende des Zürichsees ist gepflastert mit zahlreichen Hindernissen. Doch ANYmal, der vierbeinige Laufroboter des Robotic Systems Lab der ETH Zürich, überwindet die 120 H?henmeter mühelos und steht nach 31-minütigem Aufstieg auf dem Gipfel. Vier Minuten schneller, als für menschliche Wanderer vorgesehen. Und das ohne Sturz oder Fehler.
M?glich wird dies durch eine neue Steuerungstechnologie, die Forschende der ETH Zürich um Robotik-Professor Marco Hutter kürzlich in der Fachzeitschrift Science Robotics pr?sentierten. ?Der Roboter hat gelernt, die visuelle Wahrnehmung der Umwelt mit der auf direktem Beinkontakt beruhenden Tastwahrnehmung zu kombinieren. Er kann dadurch unwegsames Gel?nde schneller, effizienter und vor allem robuster bew?ltigen?, sagt Hutter. In Zukunft kann ANYmal überall dort eingesetzt werden, wo es für Menschen zu gef?hrlich oder für andere Roboter zu unwegsam ist.
Die Umwelt richtig wahrnehmen
Um sich in schwierigem Gel?nde zu bewegen, kombinieren Menschen und Tiere ganz automatisch die visuelle Wahrnehmung ihrer Umwelt mit dem Tastsinn ihrer Beine und H?nde. So k?nnen sie problemlos mit rutschigem oder nachgiebigem Untergrund umgehen und sich auch bei schlechten Sichtverh?ltnissen zuverl?ssig fortbewegen. Bis anhin waren Laufroboter nur bedingt dazu in der Lage.
?Der Grund dafür ist, dass die von Laser-Sensoren und Kameras aufgezeichneten Informationen zur unmittelbaren Umgebung oft unvollst?ndig und mehrdeutig sind?, erkl?rt Takahiro Miki, Doktorand in Hutters Gruppe und Erstautor der Studie. So erscheinen etwa hohes Gras, seichte Pfützen oder Schnee als unüberwindbare Hindernisse oder sind teilweise unsichtbar, obwohl der Roboter eigentlich darüber hinweglaufen k?nnte. Zudem kann der Blick des Roboters im Einsatz durch schwierige Lichtverh?ltnisse, Staub oder Nebel gest?rt werden.
?Roboter wie ANYmal müssen daher selbstst?ndig entscheiden k?nnen, wann sie Bildern ihrer Umwelt vertrauen und zügig voranschreiten und wann sie sich besser vorsichtig und mit kleinen Schritten vorantasten?, so Miki. ?Darin liegt die grosse Herausforderung.?
Im virtuellen Trainingslager
Durch ein neues Steuerungssystem, das auf einem neuronalen Netzwerk basiert, ist der von ETH-Forschenden entwickelte und vom ETH Spin-off externe Seite ANYbotics kommerzialisierte Laufroboter ANYmal nun erstmals in der Lage, Aussen- und Tastwahrnehmung zu kombinieren. Bevor der Roboter seine F?higkeiten in der Natur unter Beweis stellen konnte, haben die Wissenschaftlerinnen und Wissenschaftler das System in einem virtuellen Trainingslager mit zahlreichen Hindernissen und Fehlerquellen konfrontiert. Dadurch lernte das Netzwerk, wie der Roboter optimal Hindernisse überwindet und wann er dabei auf Umweltdaten vertrauen kann, oder diese besser ignoriert.
?Mit diesem Training ist der Roboter in der Lage, schwierigstes Gel?nde in der Natur zu bew?ltigen, ohne dieses vorher gesehen zu haben?, sagt ETH-Professor Hutter. Dies funktioniert selbst dann, wenn die Sensordaten der unmittelbaren Umgebung mehrdeutig oder diffus sind. ANYmal geht dann auf Nummer sicher und verl?sst sich auf seinen Tastsinn. Damit, so Hutter, kombiniere der Roboter das Beste aus beiden Welten: die Geschwindigkeit und Effizienz der Aussen- und die Sicherheit der Tastwahrnehmung.
Einsatz unter Extrembedingungen
Ob nach einem Erdbeben, nach einer nuklearen Katastrophe oder w?hrend eines Waldbrandes: Zur Anwendung kommen k?nnen Roboter wie ANYmal vor allem dort, wo es für Menschen zu gef?hrlich ist und wo andere Roboter auf Grund des schwierigen Gel?ndes nicht mehr einsetzbar sind.
Wie gut die neue Steuerungstechnologie funktioniert, konnte ANYmal im September letzten Jahres an der Darpa Subterranean Challenge, dem bekanntesten Roboterwettbewerb der Welt, unter Beweis stellen. Der ETH-Roboter überwand in einem schmalen, unterirdischen Tunnel- und H?hlensystem automatisch und schnell zahlreiche Hindernisse und schwieriges Terrain. Dies trug massgeblich dazu bei, dass ETH-Forschende als Teil des Team Cerberus den ersten Platz erzielten und ein Preisgeld von 2 Millionen Dollar gewannen.
Literaturhinweis
Miki T, Lee J, Hwangbo J, Wellhausen L: Learning robust perceptive locomotion for quadrupedal robots in the wild, Science Robotics 2022, doi: externe Seite 10.1126/scirobotics.abk2822