Vom Handyphoto zur Virtual Reality
3D-Welten berechnen, aus 2D-Fotos
»Bisher erstellte man 3D-Abbilder der Wirklichkeit meist auf recht komplizierte Weise, zum Beispiel mit Laser-Scannern«, erklärt Michael Wimmer. »Fachleute müssen eine Scan-Kampagne sorgfältig planen, hochauflösende Bilder machen und die Daten am Ende noch mühsam nachbearbeiten.« Nur so kann man aus einer dreidimensionalen Punktwolke schöne, glatte Flächen und klare Formen erzeugen.
»Uns schwebt in diesem Bereich ein radikaler Paradigmenwechsel vor«, sagt Michael Wimmer. »Uns steht heute so umfangreiches Datenmaterial zur Verfügung wie noch nie zuvor – mit den passenden Algorithmen kann man diese Bilddaten nutzen.« Geräte, die hochqualitative Bilder aufnehmen können, werden immer alltäglicher. Schon heute hat fast jeder ein Fotohandy mit dabei. Quadcopter mit Webcam waren vor einigen Jahren noch teures High-Tech-Equipment, heute sind sie eine erschwingliche Spielerei.
Aus großen Sammlungen von Bilddaten lassen sich mit den passenden Rechenmethoden dreidimensionale Welten generieren. »Am Computer werden die Bilder dann nicht einfach nur zusammengestückelt, sondern wir errechnen aus ihnen ein vollständiges 3D-Modell«, sagt Reinhold Preiner, Projektmitarbeiter. Man kann sich also am Bildschirm frei um ein Objekt herumbewegen und kann es aus beliebigen Blickwinkeln ansehen – auch aus solchen, die auf den Bildern gar nicht vorkamen. Ausgrabungen können virtuell studiert und analysiert werden, man kann sie sogar für den User zuhause virtuell in hoher Qualität zugänglich machen.
Fehlertolerante Bildanalyse
Um das zu erreichen muss man Programme entwickeln, die Fehler tolerieren - denn die Daten sind nie perfekt. Bilder sind manchmal unscharf, sie zeigen Objekte bei sehr unterschiedlichen Lichtverhältnissen, und Scans können Artefakte enthalten, die die Rekonstruktion stören. Trotzdem gelingt es mit den Rechenmethoden, die nun im Forschungsprojekt »Harvest4D« entwickelt wurden, solche Bilddaten automatisiert aufzubereiten. So wurden etwa archäologische Ausgrabungen dreidimensional visualisiert – die Ausgangsdaten waren ganz gewöhnliche Fotos, zusätzlich wurde in diesem Fall die grobe Struktur mit einem Laserscan gemessen. Die Detailtiefe der Visualisierung muss nicht überall gleich sein: Bei gewöhnlichem Mauerwerk genügt eine eher grobe Darstellung, wertvolle Fresken an der Wand möchte man sich aber vielleicht genauer ansehen. Hochauflösende Bilder der Fresken können daher zusätzlich in das 3D-Modell eingebaut werden.
Wenn man die Daten nicht für wissenschaftliche Zwecke braucht, dann muss man nicht unbedingt die maximale Detailtiefe nutzen. Gibt man sich mit etwas weniger Genauigkeit zufrieden, dann können auch Endgeräte wie Laptops oder Smartphones die 3D-Modelle flüssig darstellen. Am Computergraphik-Institut an der TU Wien wurde eigens dafür der »potree viewer« entwickelt. Er verwendet spezielle Techniken zur Darstellung großer Punktewolken, die nicht in den Speicher leistungsschwacher Endgeräte passen.
Veränderungen in 4D
Wenn man weiß, zu welchem Zeitpunkt die Bilder aufgenommen wurden, kann man den drei Raumdimensionen noch eine zeitliche Dimension hinzufügen und untersuchen, wie sich die beobachtete 3D-Welt verändert. Auch das ist für den Computer eine schwierige Aufgabe: Haben sich die abgebildeten Objekte tatsächlich verändert, oder sehen die Bilder nur unterschiedlich aus, weil sie bei unterschiedlichen Lichtverhältnissen, aus unterschiedlichen Winkeln oder mit unterschiedlichen Geräten aufgenommen wurden? Menschen fällt es normalerweise recht leicht, solche Fragen zu beantworten – diese Fähigkeit einem Computer beizubringen, ist eine große Herausforderung. Solche Algorithmen können sogar für die Hochwasserforschung interessant sein. »Anwendungsmöglichkeiten für unsere Algorithmen gibt es praktisch überall – und ständig kommen neue dazu«, sagt Stefan Ohrhallinger, Projektmitarbeiter.
RSS-Feeds @ Archäologie Online
- Nachrichten
- Videos
- Podcasts