Roboter und ihre Umgebung Mit Kameras, 5G und 3D-Karten die Welt sehen wie Menschen

Von Dipl.-Ing. (FH) Hendrik Härter 3 min Lesedauer

Anbieter zum Thema

Geschlossene Räume wie Fabriken sind für autonome Roboter noch immer problematisch. Kameras und Kommunikation per 5G helfen. Eine weitere Technik hilft, damit Roboter ihre Umgebung wie Menschen wahrnehmen können.

Mobile Roboter sehen ihre Umgebung mit Kameras. Darüber hinaus erstellt der Roboter aus den Bilddaten sehr schnell eine detaillierte 3D-Karte seiner Umgebung.
Mobile Roboter sehen ihre Umgebung mit Kameras. Darüber hinaus erstellt der Roboter aus den Bilddaten sehr schnell eine detaillierte 3D-Karte seiner Umgebung.
(Bild: Nokia)

Das Konzept des digitalen Zwillings, eines virtuellen Abbildes eines realen materiellen oder immateriellen Objekts, existiert seit 2010, als die NASA den Begriff einführte. Seitdem hat sich das Konzept des virtuellen Abbildes enorm weiterentwickelt.

Die Grundidee ist, dass alle Informationen über einen physischen Ort wie eine Fabrik oder ein Gebäude gleichzeitig in digitaler Form verfügbar sind, einschließlich der Maschinen, Anlagenteile, Roboter und anwesenden Personen. Der digitale Zwilling ermöglicht es, Prozesse jederzeit zu analysieren, Entscheidungen zu treffen und Anpassungen vorzunehmen, um beispielsweise Fabriken produktiver und flexibler, Gebäude energieeffizienter und Industrieanlagen sicherer zu machen.

Mobile Roboter als Schlüsselelement

Gemessen an ihrem Potenzial stecken digitale Zwillinge noch in den Kinderschuhen. Denn um detaillierte digitale Zwillinge für komplexe physische Systeme zu realisieren, müssen viele Technologien ihren Beitrag leisten: von modernsten Netzwerktechnologien über Edge Computing bis hin zu fortschrittlichen KI-Lösungen. Ein Schlüsselelement ist unter anderem die Integration mobiler Roboter, etwa in der Industrie 4.0 oder im Gesundheitswesen.

Sie sind mobile, intelligente Arbeitskräfte und gleichzeitig „Datenlieferanten“ als mobile Objekte, die sich an einem Ort bewegen, Daten sammeln und in Echtzeit mit anderen Teilen des Systems interagieren. Die Entwicklung der Fähigkeiten und der Datenqualität mobiler Roboter ist daher für viele Anwendungen von entscheidender Bedeutung.

Probleme der Datenübertragung im Gebäude

In einem gemeinsamen Projekt erforschen Nokia Bell Labs und die Technische Universität München derzeit die Fähigkeit von Robotern, ihre Umgebung zu sehen und zu interpretieren. Sie arbeiten dabei mit KI/ML- und Sensortechiken. Konkret untersuchen Rastin Pries, Forscher bei den Nokia Bell Labs, und TU-Doktorand Sebastian Eger, wie mobile Roboter ähnlich einem Rover mit einer eingebauten Kamera autonom in einer Fabrik oder einem Labor arbeiten können.

Die Herausforderung besteht darin, dass Roboter innerhalb von Gebäuden keine zuverlässigen GPS-Signale empfangen wie im Freien. Eine genaue GPS-Positionsbestimmung ist daher unmöglich, alternative Lösungen wie 5G oder sehende Roboter sind daher gefragt. Dazu sind Kameras am Roboter angebracht und die Forscher können sehen, was der Roboter sieht. KI-Algorithmen identifizieren Objekte und räumliche Merkmale, indem sie tausende verschiedene Landmarken erkennen und diese mit einem digitalen Zwilling in der Edge-Cloud vergleichen, um den Standort und seine Umgebung, also den Kontext, zu bestimmen.

Wie Roboter einen Menschen erkennen

Menschen bestimmen ihre Position übrigens auf ähnliche Weise. Auch wir haben kein natürliches GPS. Vielmehr erkennen wir unsere Position über den lokalen Kontext, den Gesamtzusammenhang vor Ort. Künstliche Intelligenz ermöglicht es, dass Roboter ihre Umgebung auf ähnliche Weise erkennen, so dass sie ihren genauen Standort ohne Ortungstechniken bestimmen können.

Ein Beispiel: Taucht eine Person im Sichtfeld des Roboters auf, identifiziert der Roboter als Mensch und kann anhand des Sicherheitsausweises feststellen, ob jemand berechtigt ist, sich in dem Raum aufzuhalten. Darüber hinaus erstellt der Roboter aus den Bilddaten sehr schnell eine detaillierte 3D-Karte seiner Umgebung.

Der Clou: Mit dieser 3D-Karte kann der digitale Zwilling des Labors aktualisiert und erweitert werden. Damit trägt die Technologie auch zur Weiterentwicklung der digitalen Zwillinge bei. Doch damit nicht genug: Auch für zukünftige Anwendungen bei Augmented Reality (AR), Industrial Metaverse und autonomes Fahren spielen Anwendungen mit maschinellem Sehen eine entscheidende Rolle.

(ID:49764546)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung