Aufrufe
vor 1 Jahr

Industrielle Automation 3/2017

Industrielle Automation 3/2017

Perfektes Gespann

Perfektes Gespann Embedded-Vision-Lösung mit USB-3.0-Boardlevel-Kamera Autonome Transportsysteme, Roboter im Industrie-4.0-Umfeld oder autark agierende Drohnen sind ohne Echtzeit-Bildverarbeitung nicht denkbar. Klassische Bildverarbeitungssysteme aber scheiden hier aus Platz- oder Kostengründen aus, Smart Cameras sind in ihrer Funktionalität eingeschränkt. Erst die Kombination aus miniaturisierter Kamera, kompaktem Prozessorboard und flexibel programmierbarer Software ermöglicht es, derartige Applikationen direkt in Maschinen oder in Fahrzeuge „einzubetten“. Heiko Seitz, Technischer Redakteur, IDS Imaging Development Systems GmbH Wie kann eine Drohne in einer Katastrophensituation helfen? Indem sie beispielsweise Wasserproben nimmt, Rettungsringe abwirft oder Geodaten und Bilder aus Gebieten liefert, wo Menschen nicht oder nur mit Mühe hingelangen. Für letztere Aufgabenstellung hat das Team Akamav, eine Arbeitsgruppe aus Studie renden und Beschäftigten der Technischen Universität Braunschweig, die durch das Institut für Flugführung (IFF) der TU Braunschweig unterstützt wird, einen speziell ausgestatteten Multicopter gebaut. Dieses Micro Air Vehicle (MAV) überfliegt Katastrophengebiete – das können Erdbebengebiete oder überflutete Städte sein, aber auch brennende Fabrikanlagen – und liefert in Echtzeit Karten, die Rettungskräfte sofort als Hilfestellung zur Missionsplanung nutzen können. Der Multicopter operiert autark. Sein Einsatzgebiet wird anhand eines vorliegenden georeferenzierten Satellitenbildes abgesteckt. Daraus wird automatisch, in Abhängigkeit von der Größe des Areals und der gewünschten Bodenauflösung, eine Wegpunktliste erzeugt. Diese wird dann mit Hilfe von GNSS (Global Navigation Satellite System) oder GPS abgeflogen. Der Start und die Landung des Multicopters erfolgen ebenfalls automatisiert. Die Echtzeitanforderungen schließen gängige Ansätze der Fernerkundung, wie beispielsweise die Photogrammetrie aus. Diese liefert erst Ergebnisse, nachdem alle Bilder aufgenommen und auf Basis meist 01 Multicopter für die Echtzeit-Kartographierung von Katastrophengebieten (TU Braunschweig): Die Karten werden von einem an Bord montierten Embedded- Vision-System (Single-Board-Computer und USB 3.0 Platinenkamera von IDS) erstellt sehr rechenintensiver Algorithmen zusammengesetzt wurden. Entsprechend erstellte Karten sind dann zwar sehr präzise, jedoch ist die Genauigkeit für einen ersten Überblick im Katastrophenfall zweitrangig. Die von Akamav konzipierte Lösung basiert dagegen auf dem Prinzip des Image Mosaicing bzw. Stitching, ein Verfahren, um aus vielen einzelnen Bildern sehr schnell ein großes Gesamtbild zusammenzusetzen. Um dieses Prinzip an Bord eines Multicopters umzusetzen, müssen die von einer Kamera gelieferten Bilder aber zeit- und ortsnah von einem Rechner verarbeitet werden. Embedded-Vision-Systeme auf Basis von Einplatinencomputern Das „klassische“ Vision-System besteht aus einer Industriekamera, die via USB, GigE oder Firewire an einen Desktop-PC oder Box-PC angeschlossen ist – auf dem Rechner erfolgt die eigentliche Bildverarbeitung über eine Bildverarbeitungs-Software (BV) und gegebenenfalls die Steuerung weiterer Komponenten innerhalb der Applikation. Eine solche Konfiguration braucht Platz, ist vergleichsweise teuer und bietet viel Funktionalität, die letztlich nicht benötigt wird. Embedded-Vision-Systeme auf der Basis von Einplatinencomputern und in Verbindung mit Open-Source-Betriebssystemen können sehr platzsparend ausgelegt werden, sind flexibel programmierbar und meist günstig zu realisieren. Ein dementsprechend perfektes Gespann bilden Boardlevel-Kameras mit USB-Interface und ARM-basierte Single-Board-Rechner. Diese bieten eine ausreichende Rechenleistung, weisen einen geringen Energieverbrauch auf und sind in verschiedenen, meist sehr kleinen Formfaktoren erhältlich. Die Akamav setzt auf das nur 83 × 60 mm kleine, aber sehr leistungsfähige Odroid-XU4 Board mit OctaCore- ARM-CPU und Linux-Betriebssystem. Der Single-Board-Computer verfügt über alle wichtigen Schnittstellen (u. a. GigE, USB 2.0 und USB 3.0) und ist mit dem Autopiloten des Flugsystems via USB-Interface verbunden. Über diesen Datenlink erhält der Rechner neben Statusinformationen des Flugsystems auch Infos zur aktuellen Position in Längen- und Breitengraden sowie zur barometrischen Höhe und zur Höhe über dem Referenzellipsoiden. Die Bilderfassung übernimmt eine Platinenkamera aus der USB 3 uEye LE Serie von IDS. Die Industriekamera mit USB-3.0­ Anschluss misst in der Boardlevel-Variante 68 INDUSTRIELLE AUTOMATION 3/2017

02 Multicopter mit USB 3.0 Industriekamera von IDS und ARMv7 Single-Board-Computer 03 Die Version der USB3 uEye LE Boardlevel- Kamera mit USB 3.1 Type-C-Anschluss nur 36 × 36 mm und bietet dennoch alle wesentlichen Funktionen. Erhältlich ist sie mit CMOS-Sensoren der neuesten Generation von ON Semiconductor und e2v und mit Auflösungen bis 18 Megapixel. Ein 8-Pin- Konnektor mit 5 V Stromversorgung, Trigger und Blitz, 2 GPIOs sowie ein I 2 C-Bus zur Ansteuerung der Peripherie sorgen für nahezu uneingeschränkte Konnektivität. Volles Potenzial der Kamera nutzen Die Einbindung der Kamera erfolgt über das uEye-API. Insbesondere dem API kommt bei allen Vision-Applikationen eine Schlüsselrolle zu, denn es entscheidet erstens, wie einfach es ist, die Kamerafunktionalität zu nutzen und zweitens, wie gut das Potenzial der Kamera ausgeschöpft werden kann. IDS bietet hier mit seinem eigenen „Standard“ einen entscheidenden Vorteil, von dem insbesondere auch die Entwickler von Embedded-Vision-Anwendungen profitieren: Denn egal, welche Kamera des Herstellers eingesetzt wird, egal welche Schnittstellentechnologie (USB 2.0, USB 3.0 oder GigE) benötigt wird, und egal, ob eine Desktopoder Embedded-Plattform zum Einsatz kommt – das uEye API ist immer gleich. Sowohl die Integration der Kamera als auch die Adaption an eine Third-Party-Bildverarbeitungssoftware, wie zum Beispiel Halcon, ist auf der Embedded-Plattform absolut identisch zur Desktop-Umgebung. Spezielle Tools, wie das uEye-Cockpit, das ebenfalls Teil des IDS-eigenen Software-Development-Kits ist, reduzieren den Aufwand für Programmierer darüber hinaus. Nach dem Motto „Konfigurieren statt programmieren“ kann die Kamera am Desktop-PC mit wenigen Mausklicks vorkonfiguriert werden. Die Konfiguration lässt sich speichern und später einfach in die Embedded-Vision- Applikation laden. Gerade im Embedded- Bereich ist die Programmierung durch die Cross-Kompilierung in der Regel sehr aufwändig und oft gibt es keine Möglichkeiten, die angeschlossene Kamera direkt am Gerät einzustellen. In so einer Situation ist eine Vorkonfiguration der Kameraeinstellungen im uEye-Cockpit Gold wert. Ausblick In naher Zukunft werden Micro Air Vehicles wie der Akamav Multicopter in vielen Bereichen eine immer größere Rolle spielen. Ob auf dem Gebiet der Messdatenerfassung, in der Katastrophenhilfe, der Verkehrsbeobachtung oder bei der Überwachung von weitreichenden Infrastrukturnetzen, wie z. B. Gaspipelines, bringen sie Embedded- Vision-Lösungen an Orte, die für Menschen nur schwer oder gar nicht erreichbar sind. Fotos: 01 iStockphoto, 02+03 IDS www.ids-imaging.de »The Mitsubishi Electric LINE SCAN BAR solution offers high quality image acquisition in the smallest footprint ever!« Hans Gut VP Marketing & Sales, Hunkeler AG Share our passion for vision. www.stemmer-imaging.de/CIS THE PERFECT COMBINATION OF FAST DATA RATES AND LOW EFFORT CONTROL HALLE 6STAND 6531 LASER WORLD OF PHOTONICS HALLE A2STAND 311 Authorized Distributor of LINE SCAN BAR

AUSGABE