Aufrufe
vor 2 Jahren

Industrielle Automation 3/2019

  • Text
  • Automation
  • Industrielle
Industrielle Automation 3/2019

Hoch hinaus

Hoch hinaus Industriekameras geben autonomen Robotern Orientierungssinn geben, welches sich zwar bekannt anhörte, aber dennoch anders war. Die Aufgabenstellung beinhaltete zusätzlich, dass der Roboter erstens Treppen überwinden, zweitens auf der Stelle wenden und drittens durch ein kompaktes Design auch enge Räume erreichen können sollte. Industriekameras erfassen Umgebung dreidimensional Die Bewegungsabläufe von mobilen Robotern sind meist komplex und verhindern eine schnelle Fortbewegung, vor allem auf Ebenen mit Höhenunterschieden wie Stufen und Treppen. Da wäre ein autonomes Gerät mit Rädern eine optimale Lösung. Das dachten sich auch neun Studenten der ETH Zürich: In einem Projekt entwickelten sie ein hybrides Robotersystem mit Rädern, das sich mithilfe von USB 2.0 Industriekameras selbstständig stabilisieren, im Raum orientieren und Treppen hochspringen kann. Beinahe kein Tag vergeht, an dem in den Medien nicht über irgendeine Naturkatastrophe berichtet wird: Hurricans, Tsunamis, Flächenbrände, Überschwemmungen oder Erdbeben; all dies führt zu Zerstörung und Leid. Um Hilfe besser koordinieren und schnellstmöglich leisten zu können, ist es unerlässlich, eine Gesamtübersicht der Lage zu erhalten. Freiflächen stellen dabei selten ein Problem dar. Hubschrauber und Drohnen haben sich bereits mehrfach bewährt, wenn es die Umstände zugelassen haben. Ganz Anders sieht es mit geschlossenen Räumen aus. Dipl.-Inform. (FH) Ulli Lansche ist technischer Redakteur bei MATRIX VISION in Oppenweiler Die ETH Zürich forscht seit Jahren im Bereich der Robotik und intelligenten Systeme, die autonom in geschlossenen Räumen agieren können und hat für diesen Zweck ein eigenes Labor, das „Autonomous Systems Lab“, eingerichtet. In vielen Masterund Bachelorarbeiten konnten bereits unterschiedliche Lösungen präsentiert werden, wie der schlangenartige Suchroboter namens „Traloc“, bei dem auch Matrix Vision involviert war. Die Kunst der Forschung ist es jedoch, sich nicht auf dem Erreichten auszuruhen, sondern sich mit anderen Herangehensweisen neu zu erfinden, um so eine Basis für eventuell bessere Lösungen für das gleiche Problem zu schaffen. So wurde mit der „Entwicklung eines Roboters mit einer maximalen Mobilität und Manövrierbarkeit im Indoor-Bereich“ ein Thema vorge- Neun Studenten fanden sich zusammen und gründeten ein Team mit dem Namen „Ascento“. Als technische Basis entschied sich die Gruppe für ein auf zwei Beinen balancierendes System mit Rädern. Damit sollten ein kompaktes Design und das Wenden auf engstem Raum möglich sein. Nur, wie kann man eine Treppe auf zwei Rädern überwinden? Die Antwort: Per Sprung. Doch gerade in Verbindung mit einem balancierenden System erwies sich dies als größte Herausforderung, da kaum vergleichbare Roboter existierten und das Team bezüglich der Sprungdynamik komplettes Neuland betrat. Auch mit einem Sprung alleine ist es nicht getan, denn um sich auf unbekanntem Terrain autonom bewegen zu können, benötigt der Roboter das Wissen über die eigene Umgebung inklusive vorhandener Objekte. Die Idee der Studenten war, für dieses Vorhaben einen Rechner mit angeschlossenen Sensoren und High-End- Kameras einzusetzen. Zwei Industriekameras sollen als Stereokamerapaar agieren und die Umgebung dreidimensional erfassen. Da im schlimmsten Fall bei zerstörten Objekten jedoch kein Kartenmaterial vorhanden ist, muss der Roboter gleichzeitig seine Position bestimmen als auch eine Karte erstellen können. Diese Schwierigkeit besteht jedoch auch beim Einsatz von Mäh-, und Saugrobotern, unbemannten Drohnen oder Landfahrzeugen in der Raumfahrt. Aus diesem Grund haben sich viele Wissenschaftler mit dem Problem beschäftigt und mit dem SLAM-Algorithmus (Simultaneous Localization and Mapping) die Möglichkeit geschaffen, simultan Positionen zu bestimmen und Karten zu erstellen. Der Algorithmus in Verbindung mit den Kameras und einer inertialen Messeinheit (IMU) zur Bewegungsdetektion ermöglichte es den Studenten der ETH Zürich, den Roboter im Raum anhand visueller Daten zu lokali sieren. Die Kameras zeichnen ferner die Umgebung des Roboters in Form von „Sparse Maps“, also digitale Karten, auf und verzeichnen darin ver- 62 INDUSTRIELLE AUTOMATION 3/2019

einzelte markante Orientierungspunkte. Dank diesen ist ein Wiedererkennen bereits befahrener Strecken möglich. Zuverlässige Bildaufnahme ohne Bildverluste Fokus Industrie Die kompakten Platinenkameras mvBlueFOX-MLC-Module sind mit vollem Funktionsumfang ausgestattet und eignen sich ideal für OEM-Applikationen, bei denen wenig Raum zur Verfügung steht. Durch die ausgezeichnete Bildqualität und die sehr hohe Bildwiederholrate eignen sie sich ideal für Embedded-Systeme. Einsatzgebiete sind u. a. Machine Vision-Anwendungen, die Medizintechnik (zum Beispiel zur Dokumentation von Vorher-/Nachher-Ergebnissen) sowie in der Automation von unzähligen Prozessen, beispielsweise in der Robotik, der Verpackungsindustrie oder der Oberflächenprüfung. Die Studenten setzten zwei Industriekameras mit USB-2.0-Schnittstellen vom Typ BlueFOX-MLC200wG von Matrix Vision ein, die sich aufgrund ihrer Kompaktheit einfach integrieren ließen. Über die digitalen Schnittstellen konnte eine gleich - zei tige (Stereo-)Aufnahme beider Kameras gewährleistet werden. Die Auflösung von 752 × 480 Pixeln, die Bildwiederholrate von 93 Bildern/s gemeinsam mit dem Bildspeicher von 8 MP schafften die Basis für ein ausreichend großes Sichtfeld und eine zuverlässige Bildaufnahme ohne Bildverluste. „Ein besonderes Plus der Kameras war es, dass diese sofort per Plug-and-Play ein satzbereit waren“, so Nicola Küng, Verantwort licher im Team für Computer Vision and Localisation. In nur neun Monaten entwickelten die Studenten aus einer Idee ein innovatives Produkt: Über den Entwurf, das Design, die Produktion bis hin zum Marketing durchliefen sie dabei alle Schritte der Produkt entwicklung. Mit der Präsentation ist das Fokusprojekt der ETH Zürich zwar abgeschlossen; der Roboter existiert jedoch weiterhin und dürfte aufgrund seiner vielseitigen Dynamik auch für weitere Computer Vision Applikationen von Interesse sein. Bilder: Matrix Vision www.matrix-vision.com COMMON VISION BLOX TECHNICAL SUMMIT 2019 22./23. MAI 2019, FREISING Diskutieren Sie mit unseren Experten und anderen Anwendern Themen wie Rapid Prototyping ‒ Modular Embedded ‒ OPC UA ‒ Hyperspectral Imaging ‒ Machine Learning, 3D-Tools, uvm. MEET THE EXPERTS WEITERE INFORMATIONEN UND ANMELDUNG: www.commonvisionblox.com/cvb-tech-summit

AUSGABE