Videos der Zukunft zum „Hineingreifen“

06.08.2016 |  Von  |  Allgemein

Geschätzte Lesezeit: 4 minutes

Keine Beiträge mehr verpassen? Hier zum Newsletter anmelden!
Videos der Zukunft zum „Hineingreifen“
5 (100%)
1 Bewertung(en)

Wissenschaftler des Massachusetts Institute of Technology (MIT) testen eine revolutionäre neue Technologie: Mit deren Hilfe sollen wir Videos in Zukunft deutlich interaktiver gestalten können als bisher.

Demnach ist es zum Beispiel möglich, direkt in das gezeigte Bild eines „Interactive Dynamic Video“ (IDV) „hineinzugreifen“, die darin befindlichen Objekte zu berühren bzw. auf verschiedene Arten zu manipulieren. Das enorme Potenzial an Anwendungsmöglichkeiten reicht vom Bauwesen bis hin zu deutlich verbesserten Augmented- und Virtual-Reality-Anwendungen.

Objekte manipulieren

„Wir lernen eine Menge über Objekte, indem wir sie manipulieren: Wir können sie anstossen oder schubsen und schauen dann einfach, was passiert“, erklärt Abe Davis, PhD-Student am Computer Science and Artificial Intelligence Laboratory. „Mithilfe von IDV können wir das physische Verhalten von Objekten einfangen, was uns die Möglichkeit eröffnet, mit ihnen im virtuellen Raum zu spielen“, ergänzt der Wissenschaftler. „Indem wir Videos interaktiver gestalten, können wir vorhersagen, wie sich einzelne Objekte in Anbetracht unbekannter Kräfte verhalten und neue Wege erforschen, was sich mit einem Video alles anstellen lässt“, so Davis.

Die potenziellen Anwendungsmöglichkeiten seien enorm breit gefächert. „Es gibt viele mögliche Einsatzgebiete, von Filmemachern, die damit vollkommen neue Visual Effects in ihren Produktionen umsetzen können, bis hin zu Architekten, die damit überprüfen können, ob die von ihnen entworfenen Gebäude strukturell stabil genug sind“, nennt der Forscher einige Beispiele.

Fünf Sekunden reichen für eine Simulation

Wenn die Bewegung von Objekten simuliert werden soll, wird für gewöhnlich auf ein 3D-Modell zurückgegriffen. „Diese Methode ist allerdings recht teuer und funktioniert nicht bei allen Objekten“, so Davis. Auch Algorithmen seien nicht ausreichend, um komplexe Bewegungen in unbekannten Umgebungen halbwegs realistisch simulieren zu können. „Bei unserer Technik reichen aber schon ganze fünf Sekunden des Videos, um genug Informationen zu haben, die für eine realistische Simulation reichen“, betont der MIT-Experte.

Um die Objekte in ihrer Bewegung korrekt abbilden zu können, analysierte Davis‘ Team eine Reihe von Videoclips, um bestimmte Frequenzen zu finden, die nur bei spezifischen Bewegungen auftreten. „Wenn wir diese Eigenschaften kennen, können wir auch vorhersagen, wie sich diese Objekte in völlig anderen Situationen verhalten“, erläutert der Forscher.



Mehrere Testobjekte

Eigenen Angaben zufolge hat Davis die IDV-Technologie bereits an einer Reihe von unterschiedlichen Objekten in Videos getestet: an einer Brücke, einem Klettergerüst und einer Ukulele. Dabei konnte er mit wenigen Mausklicks zeigen, dass es möglich ist, das Bild anzustossen, heranzuziehen und in verschiedene Richtungen zu biegen oder zu bewegen. Bei einem Versuch konnte er sogar demonstrieren, wie sich mit einer Handbewegung in beinahe telekinetischer Art und Weise die Blätter eines Strauches in einem Video bewegen lassen.

 

Artikel von: pressetext.redaktion
Artikelbild: © chevu – Shutterstock.com

Über belmedia redaktion

belmedia hat als Verlag ein ganzes Portfolio digitaler Publikums- und Fachmagazine aus unterschiedlichsten Themenbereichen aufgebaut und entwickelt es kontinuierlich weiter. Getreu unserem Motto „am Puls der Zeit“ werden unsere Leserinnen und Leser mit den aktuellsten Nachrichten direkt aus unserer Redaktion versorgt. So ist die Leserschaft dank belmedia immer bestens informiert über Trends und aktuelles Geschehen.


Ihr Kommentar zu:

Videos der Zukunft zum „Hineingreifen“

Für die Kommentare gilt die Netiquette! Erwünscht sind weder diskriminierende bzw. beleidigende Kommentare noch solche, die zur Platzierung von Werbelinks dienen. Die belmedia AG behält sich vor, Kommentare ggf. nicht zu veröffentlichen.