Saarbrücker Forscher erstellen digitale Objekte aus unvollständigen 3D-Daten
Mit speziellen Kameras können reale Objekte inzwischen digital erfasst werden. Sie stoßen jedoch noch an Grenzen, wenn beispielsweise die Oberfläche eines Objektes für den Scanner zu dunkel ist und daher kein Signal liefert oder sich Teile gegenseitig verdecken. Informatiker des Max-Planck-Instituts für Informatik haben gemeinsam mit Kollegen vom US-amerikanischen Halbleiterhersteller Intel und dem Intel Visual Computing Institute der Universität des Saarlandes eine Methode entwickelt, die selbst aus unvollständigen Aufnahmen ein digitales Objekt rekonstruieren kann. Die Forscher nutzen dafür einen speziellen Typ eines neuronalen Netzwerkes.
Obwohl die 3D-Scan-Technologie in den vergangenen Jahren einen erheblichen Sprung gemacht hat, ist es immer noch eine Herausforderung, die Geometrie und Form eines realen Objektes digital und automatisiert zu erfassen, so Mario Fritz, der am Max-Planck-Institut für Informatik die Gruppe Scalable Learning and Perception leitet. Tiefensensoren sind, etwa der Microsoft Kinect Sensor, sehr leistungsfähig, aber sie funktionieren nicht auf allen Materialien gleich gut, was zu verrauschten Daten oder sogar fehlenden Messwerten führt. Die daraus resultierenden fehlerhaften oder sogar unvollständigen 3D-Geometrien stellen ein echtes Problem für eine Reihe von Anwendungen dar, etwa in der virtuellen, erweiterten Realität oder bei der Zusammenarbeit mit Robotern und im 3D-Druck.
Gemeinsam mit weiteren Forschern vom US-amerikanischen Halbleiterhersteller Intel und dem Intel Visual Computing Institute der Saar-Uni entwickelte er daher eine Methode, die auch mit unvollständigen Datensätzen funktioniert. Sie nutzt ein spezielles neuronales Netzwerk. Ihre Methode benötigt keinerlei Aufsicht während der Lernphase, was in dieser Form ein Novum ist. Auf diese Weise konnten die Forscher beispielsweise einen flachen Monitor, dessen digitales Abbild nach dem 3D-Scan eher einer Bretterwand glich, so rekonstruieren, dass jedermann wieder in dem digitalen Objekt einen Monitor erkennen konnte. Damit schlagen die Saarbrücker Informatiker auch bisherige Methoden, die fehlerhafte 3D-Scans verbessern und Formen vervollständigen. Auch bei der Klassifizierung von gescannten Objekten zeigt die Methode aus Saarbrücken sehr gute Ergebnisse. In Zukunft wollen die Wissenschaftler ihre Methode weiterentwickeln, so dass es auch bei verformbaren Objekten und größeren Szenen funktioniert.
Nach Philipp Slusallek, Professor für Computergraphik der Universität des Saarlandes und wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) muss es zukünftig einfach und schnell gelingen, Objekte aus der echten Welt zu erfassen und diese realitätsnah in die digitale Welt zu projizieren. Am DFKI ist er auch für das europäische Verbundprojekt Distributed 3D Object Design, kurz DISTRO, verantwortlich, mit dem die Europäische Union die Forschungsdisziplinen Visual Computing und 3D-Computergrafik an die wissenschaftliche Weltspitze bringen will. Dazu soll eine neue Generation von exzellenten Wissenschaftlern und Technikern ausgebildet werden. Fünf der 15 ausgeschriebenen Doktorandenstellen wurden mit Forschern des Saarland Informatics Campus an der Universität des Saarlandes besetzt.
Aktuelle Onlineartikel
-
14. 03. 2024 Forschen im Pop-Up-Labor: CAIS erhält € 170.000 für transdisziplinäres Forschungsprojekt
-
13. 03. 2024 Grüne Startups als treibende Kräfte für eine nachhaltige Wirtschaft
-
12. 03. 2024 Neue Chips passen sich an ihre Aufgabe an
-
12. 03. 2024 Spezial-Elektrolyseur für grünen Strom
-
11. 03. 2024 Innovative Schmiermittel revolutionieren die Kaltumformung von Metallen
-
08. 03. 2024 Wie Oberflächenrauheit die Haftung weicher Materialien beeinflusst